在CES 2026的舞台上,AMD首席执行官苏姿丰博士掷出一枚震撼弹:未来四年内,AI算力将实现千倍级跃升!面对英伟达构筑的生态壁垒,AMD不再低调,以全新Helios机架系统与MI455X加速卡强势回应,凭借单代产品性能暴涨10倍的“暴力美学”,正面挑战行业霸主。从Yottascale计算的宏伟蓝图,到配备128GB统一内存的PC怪兽,AMD正以一场前所未有的算力革命,意图重塑人工智能世界的权力格局。
1月6日,美国拉斯维加斯消费电子展(CES)迎来主旨演讲日,这一天注定成为全球科技产业权力版图剧烈震荡的里程碑。
几个小时前,身着标志性皮衣的英伟达CEO黄仁勋刚刚结束他的演讲,留下了令竞争对手窒息的Vera Rubin平台以及Agentic AI的宏大愿景,仿佛一位刚刚巡视完疆土的帝王。
然而,聚光灯并未就此熄灭。
随后,全球目光转向AMD的掌门人苏姿丰博士。这位总是以干练西装亮相、在男性主导的半导体世界中杀出重围的女性领导者,正准备在这场发布会上,向看似不可战胜的“绿色帝国”发起这一时代最猛烈的冲锋。
这是算力世界“双城记”的缩影。
一边是英伟达,试图通过封闭的生态系统与极致的垂直整合,构筑起不可逾越的“围墙花园”,将数据中心变成只属于它的黑色方尖碑;
另一边则是AMD,试图通过广泛结盟、开放标准以及极致堆料的硬件,联合OpenAI、微软、Meta等组成的“复仇者联盟”,在铁幕上撕开一道裂缝。
这场发布会早已超越摩尔定律的线性叙事。
AMD今天发布的远不止芯片本身,而是一整套旨在打破英伟达垄断的战略蓝图。
在深入解读AMD的突围之前,我们必须先审视那道横亘在AMD心头的巨大阴影——英伟达刚刚发布的Vera Rubin平台。了解对手的强大,才能理解AMD此次反击的悲壮与战略价值。
就在AMD发布会开始前,黄仁勋展示了英伟达的下一代核武器:Vera Rubin。
这个名字本身充满隐喻——Vera Rubin是证实暗物质存在的著名天文学家,而英伟达正试图掌控AI宇宙中那些“看不见”但决定一切的力量:数据流动的引力。
根据现场披露的信息,Vera Rubin平台严丝合缝、精密得令人窒息。它由三个核心组件构成,每一个都直指AMD的要害:
(1) Rubin GPU:这是英伟达的皇冠明珠。虽然具体工艺细节严格保密,但其配备了下一代HBM4(高带宽内存)的事实,足以让整个行业颤抖。HBM4不仅是速度的提升,更是容量的质变,直接解决了大模型训练中的“内存墙”问题。
(2) Vera CPU:这是英伟达基于Arm架构深度自研的怪兽,拥有88个自定义Arm核心和176个线程。英伟达的意图或许是:通过超级芯片的设计,将Vera CPU与Rubin GPU在物理层面“焊死”在一起,逐步在高端AI服务器中剔除x86架构的CPU(即AMD和Intel的主阵地)。
(3) NVL144 机架:这是英伟达“数据中心即计算机”理念的终极形态。单机架拥有144颗GPU,通过NVLink 6互联,带宽达到惊人的260TB/s。这是一台巨大的、单一的、吞噬电力的超级计算机。
英伟达传递的信息冷酷而明确:在未来的AI数据中心里,不需要插拔,不需要兼容,甚至不需要其他品牌的Logo。你买的不是芯片,而是英伟达定义的“算力单元”。
更令AMD感到压力的是英伟达在软件叙事上的升级。黄仁勋在演讲中不再只谈论训练,而是大谈特谈Agentic AI。当AI模型从单纯的聊天机器人进化为能自主规划、调用工具、解决复杂任务的智能体时,推理算力的需求将不再是线性的,而是指数级的。一个Agent为了完成一个任务,可能需要在后台进行数千次的推理、反思和模拟。
英伟达声称,Rubin平台能将推理Token的成本降低10倍。这种“降维打击”般的承诺,直击了OpenAI等客户的痛点——他们每天都在为天文数字般的电费和算力成本发愁。英伟达试图告诉市场:只有我的软硬件一体化平台,才能承载这种能够“思考”的AI。
在这样的背景下,苏姿丰登场了。她面对的是一个近乎完美的对手,一个不仅垄断了现在,还试图定义未来的帝国。
灯光渐暗,大屏幕上亮起了AMD标志性的橙红色光芒。PPT的第一页是一句充满防御性却又极具进攻意味的标语:“Solving the World"s Most Important Challenges”(解决世界上最重要的挑战)。
苏姿丰没有回避房间里的大象,而是直接切入正题:算力需求的爆炸。
AMD直接抛出了概念:Yottascale Compute(尧字节级计算)。尧塔浮点运算(Yottaflop)代表每秒一亿亿亿次浮点运算(10²⁴ FLOPS)。目前最强的El Capitan还停留在百亿亿次浮点运算(1.742 Exaflops,即10¹⁸ FLOPS)级别。AMD的目标是未来5年内,构建10万台El Capitan级别的超级计算机集群。
目前,世界最强超级计算机El Capitan占地约697平方米,相当于两个网球场大小。
根据AMD的内部数据,AI算力需求正在经历前所未有的暴涨。PPT第8页赫然写着:“10,000x Increase in AI Compute”。
苏姿丰说:“不仅训练算力每年增长4倍,在过去两年里,推理Token的数量增加了100倍。”
这一数据直接回击了英伟达关于“推理成本”的叙事——AMD同样看到了Agentic AI的未来,但他们的解决方案完全不同。AMD试图用更开放、更巨大的规模来解决问题。
发布会的高潮是一个名为“Helios”的AI机架揭幕。
以希腊神话中的太阳神命名,Helios承载了AMD照亮黑暗、打破垄断的隐喻。如果说英伟达的NVL72是一座封闭的黑色方尖碑,那么Helios就是AMD试图构建的“巴别塔”——一座由全人类(除了英伟达)共同建造的高塔。
为了更直观地理解这场对决,我们将Helios与英伟达的NVL平台进行了详细对比:
Helios机架不仅仅是硬件的堆叠,它是AMD战略的集大成者。
作为Helios的心脏,AMD Instinct MI455X被正式推向舞台中央。
AMD展示了直到2027年的路线图,这种透明度在瞬息万变的半导体行业极为罕见。
AMD承诺在4年内实现1000倍的AI性能提升。
这是在告诉资本市场和客户:“我们有长期的技术储备,不会在英伟达的快速迭代中掉队。我们是长跑选手,不是投机者。”
如果说GPU是跑车,那么互联技术就是高速公路。英伟达之所以无敌,不仅仅是因为跑车快,更是因为他们修了私有的高速公路(NVLink),只允许自家的车跑,而且还要收昂贵的过路费。本次发布会上,AMD最核心、也是最具破坏力的战略反击,就是联合全行业修建一条免费、通用的高速公路——UALink (Ultra Accelerator Link),以及升级原本的国道——Ultra Ethernet (超以太网)。
在技术圈,NVLink被视为英伟达最深的护城河,甚至超过了CUDA。它允许GPU之间像大脑神经元一样共享内存,延迟极低。没有NVLink,几千张GPU堆在一起只是一堆沙子;有了NVLink,它们才是一颗超级大脑。英伟达的策略是:如果你想用最高效的集群,就必须买全套英伟达方案。NVLink不兼容任何其他厂商的芯片,它是一个封闭的物理层协议。
AMD在PPT中专门辟出一页介绍开放生态。这背后是一个名为UALink Consortium的庞大联盟。
这是一个典型的“合纵连横”故事。OpenAI、微软、Meta这些巨头最恐惧的不是技术瓶颈,而是供应商锁定。如果未来的AI基础设施完全依赖英伟达的私有标准,这些科技巨头的议价权将归零。因此,Helios机架不仅仅是AMD的产品,它是整个“反英伟达联盟”的意志体现。
除了UALink,发布会中多次提到Ultra Ethernet (UEC)。这是另一场关乎生死的战争:节点间互联。
如果UEC成功,意味着客户可以用便宜通用的以太网交换机(比如博通、思科的产品)来组建超级计算机,而不需要购买昂贵的英伟达Quantum InfiniBand交换机。这正是Helios机架的杀手锏:更低的总拥有成本(TCO)。对于那些要购买数万张显卡的客户来说,这节省下来的钱可能高达数十亿美元。
视线从云端的数据中心拉回,苏姿丰将展示重点转向了PC。在AI时代,PC正在变成“私人AI助理”的物理载体。
AMD发布了震撼级的产品——Ryzen AI Max系列。
这款芯片看似只是笔记本处理器,但其参数却令人咋舌,尤其是那个恐怖的数字:128GB统一内存。
为什么这很重要?在过去,x86处理器的内存和显存是分离的,且容量有限。想在笔记本上运行一个像Llama 3 70B这样的大模型几乎是不可能的,因为显存不够。苹果的M系列芯片(M3 Max/Ultra)之所以受开发者欢迎,就是因为统一内存架构允许大模型直接在本地运行。AMD Ryzen AI Max直接对标苹果,成为首款能运行2350亿(235B)参数模型的x86处理器。这意味着,开发者可以在一台Windows笔记本上,流畅运行企业级的超大模型,而无需联网。
现场的PPT充满了火药味,AMD几乎把市面上所有的竞争对手都拉出来打了一遍:
AMD描绘了一个诱人的未来:每一个开发者、每一个创作者,都能在自己的书桌上拥有一台“微型超算”。不再需要昂贵的云端API,不再担心隐私泄露,你的Ryzen AI Max就是你的私有GPT。这对于OpenAI等公司来说也是利好——如果端侧算力足够强,大量的推理任务可以从云端卸载到用户本地,从而节省天文数字般的云服务器成本。
除了硬件,AMD还发布了Ryzen AI Halo处理器,专为AI开发者设计。
它是一个平台。它预装了ROCm软件栈(AMD的CUDA替代品),优化了PyTorch、Hugging Face等框架,并且实现了Day-0支持主流模型(Llama, GPT-OSS, Flux等)。
AMD终于意识到,软硬结合才是王道。他们试图用类似苹果的体验,将开发者从CUDA的引力场中拉出来,给他们一把“铲子”,让他们在AMD的土地上挖掘AI的金矿。
在发布会的后半程,PPT上出现了一张密密麻麻的Logo墙。
但其中最耀眼的,莫过于OpenAI。虽然奥特曼没有亲自出场站台,而是OpenAI总裁Greg Brockman代为出席,但OpenAI作为核心合作伙伴出现在第一位,本身就是最强烈的信号。这是一场关于生存的博弈。
为什么OpenAI需要AMD?答案很简单:恐惧。OpenAI对算力的饥渴已经到了病态的程度。Brockman直接摊牌,在OpenAI内部,“算力一直在被争抢”。对此,苏姿丰打趣道:“我每次见到你,你都会告诉我:你们还需要更多算力。”随即,她抛出一个关键问题:“需求真的有这么大吗?”Brockman的回答相当直接:过去几年里,OpenAI的算力规模几乎每年都在翻倍甚至三倍增长,而且这种趋势不会放缓。他甚至用ChatGPT,做了一页幻灯片,分析了OpenAI如何让推理更省算力,包括更高带宽、更强性能、更低的HBM内存占用。
据报道,GPT-6及后续模型的训练需要数万张甚至数十万张B200。如果只依赖英伟达,OpenAI的命运就完全掌握在黄仁勋手中。英伟达可以决定谁先拿到芯片,谁能拿到多少,甚至以什么价格拿到。
除了OpenAI,我们还看到了Hugging Face、PyTorch、Databricks等名字。这是AMD对外界质疑最有力的回应。多年来,关于AMD最大的诟病就是“硬件一流,软件三流”。ROCm(Radeon Open Compute)一直被认为是CUDA的拙劣模仿者,Bug多、文档少。但在这次发布会上,AMD展示了ROCm的广泛采用。
这一变化的幕后推手是PyTorch 2.0。随着PyTorch等高层框架的普及,底层的CUDA依赖正在被剥离。对于大多数开发者来说,只要PyTorch代码能跑,底下是A卡还是N卡已经越来越不重要了。OpenAI的Triton语言更是加速了这一过程,它允许开发者编写的代码自动优化到不同的硬件后端。这正是AMD“农村包围城市”战略的体现:既然无法在底层CUDA上击败你,那就把战场拉到上层的PyTorch和Triton上,在那里,大家是平等的。
苏姿丰抛出了一个让全场愣住的判断:“五年内,全球将有50亿人每天都在使用AI 。”
注意:是每天都在用!这意味着算力需求将持续指数级增长。2025年,全球AI用户已超过10亿!而且,这不是AI的终点:未来主动式和自动化AI还将指数级增长,引爆更多推理算力需求。AMD的另一个关键判断是:AI正在从云端,走向个人电脑。
李飞飞直接描绘了未来的游戏体验。她的公司World Labs旗下的产品Marble,只需要少量照片,就能让模型自动构建一个完整的3D世界。现场演示中,只要用手机随手拍几张照片,AI就能自动生成3D场景。
游戏、虚拟世界、创作门槛,会被彻底打穿。这深远影响PC的使用体验。更激进的,是主动式智能体。明年开始,你的电脑,可能真的会“替你打工”:
除了PC,AMD还在同步押注物理AI等场景。哪里需要AI算力,AMD就会出现在哪里。
这一次,AMD是真正的All in AI。当苏姿丰在台上展示LUMI超级计算机(由AMD驱动的前欧洲最快超算)在气候模拟上的贡献时,更是进一步输出了价值观。
本次CES发布会,实质上是“反英伟达联盟”的一次誓师大会。
发布会结束了,苏姿丰在一片掌声中退场,留下了身后大屏幕上那个巨大的“Together we advance_”的标语。
对于全球科技产业而言,2026年的这天意义非凡。我们并不希望看到一个只有一个玩家的游戏。当英伟达试图用Vera Rubin将整个AI产业封装进它的黑色机柜时,AMD用Helios在墙上凿出了一扇窗。如果说英伟达是算力时代的“罗马帝国”,不仅修路(NVLink),还造车(GPU),甚至开始制定交通规则(Agentic AI),那么AMD就是那个试图维持贸易自由的“商业联邦”。OpenAI需要这扇窗,微软需要这扇窗,在这个星球上每一个渴望低成本、普惠AI算力的开发者都需要这扇窗。这场“AI算力战争”没有终点,Yottascale只是下一个开始。正如沙漠中每一粒沙子都可能成为未来的芯片,算力的世界里,也绝不应该只有一种声音。
https://www.youtube.com/watch?v=UbfAhFxDomE
本文由主机测评网于2026-03-15发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260331481.html