在CES的巨大屏幕上,黄仁勋的PPT俨然成为中国AI的「荣誉榜单」。当DeepSeek与Kimi占据中心位置之际,算力的新纪元已然开启。
备受全球瞩目的2026 CES科技盛会上,一张幻灯片瞬间引爆了人工智能领域。
在黄仁勋的主题演讲中,中国的Kimi K2、DeepSeek V3.2以及Qwen大模型赫然出现在屏幕上,它们被列为全球领先的开源大模型,其性能正逐渐接近闭源模型。
这一瞬间,无疑是中国人工智能的高光时刻。
此外,OpenAI的GPT-OSS和英伟达自家的Nemotron也被特别标注。
不仅如此,DeepSeek-R1、Qwen3和Kimi K2代表了混合专家(MoE)路线下顶尖规模的探索,它们只需激活少量参数,就能显著降低计算量和对HBM显存带宽的需求。
在展示下一代Rubin架构的关键环节,黄仁勋特意选用DeepSeek和Kimi K2 Thinking来演示其性能。
得益于Rubin的强大加持,Kimi K2 Thinking的推理吞吐量提升了10倍,更为惊人的是,其token成本骤降至原来的十分之一。
这种指数级的成本降低与效率提升,无异于宣告AI推理即将迈入真正的「平价时代」。
此外,在关于计算需求激增的幻灯片上,480B参数的Qwen3和1TB参数的Kimi K2成为典型代表,验证了模型参数规模正以每年十倍的速度扩展。
不得不承认,在整场发布会中,中国AI模型的身影无处不在。
无独有偶,英伟达在去年12月的一篇博客中,同样将DeepSeek R1和Kimi K2 Thinking作为衡量性能的基准。
实际测试表明,Kimi K2 Thinking在GB200 NVL72上的性能可提升10倍。
此外,在SemiAnalysis的InferenceMax测试中,DeepSeek-R1将每百万token的成本降低了超过10倍。Mistral Large 3等其他模型也同样实现了十倍加速。
这意味着,将复杂的「思考型」混合专家模型部署到日常应用中已成为现实。
如今,随便挑选一款前沿模型,深入其内部架构,便会发现混合专家(MoE)已成为主流设计。
据统计,自2025年以来,超过60%的开源AI采用了MoE架构,而从2023年初至今,这一架构已推动大语言模型的智能水平提升了近70倍。
此外,在权威机构Artificial Analysis的排行榜上,智能水平排名前十的开源模型,也全部采用了MoE结构。
如此大规模的MoE模型,单张GPU显然无法部署,而英伟达GB200 NVL72却能解决这一难题。
DeepSeek R1和Kimi K2 Thinking的实测结果,恰好证明了英伟达Blackwell超级计算机的强大性能。
如今,中国的大模型在全球舞台上大放异彩,它们令人瞩目的表现,开启了AI推理高效的新纪元。
去年年底,Anthropic发布了一项针对全球16个前沿模型的严格行为基准测试。
在这批顶尖模型中,DeepSeek与Kimi不仅是仅有的两个中国代表,更提交了令人惊艳的成绩——
Kimi K2 Thinking凭借极低的误导率,一举夺得「表现最佳的非美国模型」桂冠。
注:得分越低表示性能越强,越不易被误导。
这种技术实力也迅速转化为国际影响力与实际应用。
从「硅谷风投教父」Marc Andreessen的公开赞扬,到OpenAI前CTO的新产品Thinker上个月宣布接入Kimi K2 Thinking,中国AI的硬实力正逐渐被全球核心圈层所接受。
权威评测进一步证实了这一趋势。
在知名AI专家Nathan Lambert与Florian Brand联合发布的「2025年度开源模型回顾」中,DeepSeek、Qwen和Kimi强势包揽了前三名。
随后,Lambert在专文中深入剖析,高度赞扬了中国开源AI所拥有的独特优势。
1. 开源模型的「唯快不破」
尽管最强大的闭源模型与开源模型之间仍存在代差,但中国的研究机构正以惊人的速度发布新模型,大幅缩小了这一差距。
在技术快速迭代的今天,「更早发布」本身就是一种巨大的先发优势。
2. 始于「冲榜」,终于「体验」
中国模型在基准测试中的表现日益强劲,但更关键的是从「高分」到「好用」的转变。
我们目睹了Qwen的进化:起初以「冲榜」闻名,如今已成为名副其实的高质量模型。
沿着这一思路,K2 Thinking在后训练阶段原生采用4bit精度,显然是为了更高效地支持长序列强化学习扩展,使其更能胜任实际服务任务。
3. 中国力量的品牌崛起
年初,外国用户可能说不出任何一家中国AI实验室的名字;如今,DeepSeek、Qwen和Kimi已成为东方技术实力的象征。
它们各有高光时刻和独特优势。重要的是,这份名单还在不断延长,中国AI正在世界舞台上占据一席之地。
4. 突破:海量工具调用与交错思考
Kimi K2 Thinking支持「数百步稳定工具调用」引发了广泛讨论。
尽管这在o3、Grok 4等闭源模型中已成为标配(强化学习训练中的自然涌现),但通过开源模型实现尚属首批,这对托管服务商的精准支持能力提出了极高要求。
此外,还有「交错思考」(Interleaved thinking)——即模型在调用工具的间隙进行思考。
这是继Claude之后,强调智能体能力的模型都在跟进的新趋势,标志着模型逻辑链条的进一步成熟。
5. 倒逼美国闭源巨头
开源的激增让美国闭源实验室倍感压力——仅仅依靠基准测试分数已无法解释「为什么付费更好」了。
相比之下,中国模型或许在收入上暂时不占优势,但在全球市场的「心智份额」上,正在切走越来越大的一块蛋糕。
回看CES 2026这场演讲,黄仁勋直接将「开源」作为全场最核心的主线。
中国开源AI的表现足以令世界惊叹,随着更多开发者和企业拥抱这些模型,AI应用的全面爆发已指日可待。
https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/
https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means
本文由主机测评网于2026-03-15发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260331479.html