英伟达CEO黄仁勋长久以来的期盼终于成为现实。
美国政府在近期正式许可英伟达向中国及其他授权客户供应其高端H200 GPU芯片,条件是需向美方上交25%的销售分成。这一税率同样适用于AMD、英特尔等美国芯片企业。但需要注意的是,英伟达最新的Blackwell以及未来的Rubin系列GPU依然被列入禁止出口清单。
这一进展意味着黄仁勋持续数月的游说努力收获了成果。过去半年里,他频繁往返于佛罗里达和华盛顿,陪同特朗普总统出访并出席国宴,甚至为白宫宴会厅建设工程捐款,目的就是为了推动解禁。就在上周,他再次亲赴白宫会见总统,终于成功获得禁运令的解除。
受此利好消息刺激,英伟达股价在盘后交易中应声上涨。此前由于美国政府连续多轮加码芯片出口限制,英伟达在过去两年中逐步失去了增长迅猛的中国市场,其在AI GPU领域曾高达95%的份额也大幅缩水。在英伟达最为核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑。
黄仁勋两个月前曾公开抱怨:“我们已经失去了全球最大的市场之一,在中国市场几乎出局,份额已归零。”即便要向美国政府缴纳四分之一的提成,对英伟达的业绩而言也意义重大,因为中国AI GPU市场今年规模预估高达200亿至300亿美元(中商产业研究院数据)。
然而,就在黄仁勋努力重新打开一个市场的同时,他的后方也正面临群狼环伺:英伟达最大的AI芯片客户——谷歌、亚马逊、微软这三大超大规模云服务商(Hyperscalers)——正在加速自研芯片的普及,逐步减少对外部供应商的依赖。
作为生成式AI时代的领军企业,英伟达凭借其GPU无与伦比的性能以及CUDA平台的生态优势,在AI芯片这个万亿级赛道上占据了超过八成的市场份额,并一度成为全球市值最高的上市公司,市值突破5万亿美元。然而,其数据中心业务虽然年营收高达1300亿美元,却隐藏着一个隐患:客户集中度过高,前两大客户贡献了39%的营收,前三大客户的占比更是高达53%。
据媒体推测,黄仁勋的前五大客户正是微软、谷歌、亚马逊、Meta和甲骨文。而这前三大巨头如今正加速转向自研芯片,甚至拉拢第四大客户Meta。这些自研芯片的部署不仅会直接削减英伟达的订单,未来还有可能在公开市场上与英伟达正面竞争。
在上周于拉斯维加斯召开的re:Invent年度开发者大会上,全球云计算领头羊亚马逊AWS连续发布了一系列重磅产品,清晰展示了其在AI热潮中占据主导并推动行业变革的雄心。最引人瞩目的当属新一代自研AI芯片Trainium 3,被诸多媒体誉为“对英伟达的直接宣战”。这是亚马逊自2022年以来的第三代AI芯片,主打低成本与推理两大优势。
AWS CEO马特·加曼宣布,Trainium 3的训练速度比前代提升4倍,成本减半,尤其适合亚马逊Nova 2模型家族的部署,支持百万芯片级集群。与英伟达相当的GPU系统相比,Trainium 3可节省50%的训练费用。现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时即可完成H100集群一周的任务量。
低成本是Trainium 3的最大卖点。AWS官方将其定位为英伟达GPU的低成本替代品,并表示对于愿意采用其Neuron软件栈和Trainium实例的客户,基于Trainium的实例可将大型模型的训练和推理成本比同类GPU集群降低约50%。此次大会的多项发布表明,AWS决心用自研芯片、自研模型、私有化部署以及智能体全家桶,将AI赛道从训练到推理、从云端到本地、从通用模型到定制模型都牢牢掌握在自己手中。云计算巨头AWS摆明自研方向,无疑将对AI基础设施市场的未来格局产生深远影响。
目前AWS在云计算市场仍保持巨大领先优势,市场份额超过三成,为各类客户提供云端AI算力,支持他们自由选择各种大模型。从Anthropic到OpenAI再到Meta,诸多AI巨头与创业公司都在广泛使用AWS服务。就在上个月,OpenAI宣布与AWS签署合作协议,七年采购价值380亿美元的AI基础设施服务。AWS还强调,Anthropic等AI初创公司已转向Trainium,节省了超过30%的预算。
谷歌是行业内最早自研芯片的巨头,其第一代TPU早在2016年就已发布,如今已成为AI基础设施领域挑战英伟达的标杆。就在上个月,谷歌在其Cloud Next云计算大会上发布了第七代TPU v7 Ironwood,进一步加剧了英伟达的压力。
Ironwood的核心亮点在于性能的跃升:单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍。谷歌强调Ironwood专为“高吞吐、低延迟”推理优化,适用于Gemini 3等多模态模型。相比英伟达的王牌Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片。这得益于其systolic array架构和自定义互连,专攻矩阵乘法等AI核心运算。
谷歌在TPU演进上稳步推进:从v1的纯训练芯片,到v7原生支持FP8,已覆盖从边缘设备到超大规模Pod的全栈。从战略上看,TPU不仅是硬件,更是谷歌云生态的“杀手锏”。2025年,谷歌的AI芯片市场份额预计已达8%,尤其在占AI算力80%的推理领域。SemiAnalysis分析称,Ironwood“显著缩小了与NVIDIA旗舰在浮点计算性能上的差距”。
谷歌声称,使用TPU可将训练成本降低40%,这一优势吸引了Meta等第三方客户。据媒体报道,Meta已计划在2027年部署谷歌TPU,从而绕开英伟达的芯片。谷歌Ironwood服务器将交由富士康代工。而Meta正是英伟达AI芯片的第四大客户,这一转向对英伟达而言无疑是双重打击。
尽管黄仁勋依然以乐观态度回应谷歌TPU带来的威胁,强调英伟达的多平台兼容性与供应链优势,认为巨头自研芯片不会动摇其生态和软件栈构成的“护城河”,但他也不得不承认,市场竞争会让投资者感到担忧。
相比亚马逊和谷歌在自研芯片上的稳步推进和大规模部署,微软在这一领域暂时还在“交学费”,遭遇了跳票挫折。微软自研芯片首代Maia 100于2024年推出,专为Azure AI优化,今年开始大规模部署。但原本计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年。
今年10月,微软宣布Maia 100已部署于Azure数据中心,支持OpenAI模型训练。这款与博通合作开发的芯片预计比英伟达H100成本低40%。未来三代(代号分别为Braga、Braga-R和Cobalt)计划覆盖训练、推理和边缘场景。
Maia芯片的最大优势在于与微软Azure的原生结合——集成DirectML框架,吸引企业客户进行私有化部署。Maia系列聚焦多模态AI,例如突出微软Copilot的语音和视觉处理,单芯片BF16性能达2 PFLOPS。微软CTO凯文·斯科特表示,公司未来将“主要使用自家芯片”,目标减少对英伟达的依赖。但这一目标却因Maia量产延误而受阻。根据媒体报道,Maia 200的延误主要是由于设计变更、仿真不稳定等技术与内部因素,同时台积电的产能瓶颈也是现实限制。台积电先进制程(如N3/N2/高级封装)目前是全球最抢手的资源,英伟达、苹果、AMD等巨头都在争抢产能,排期极为紧张。
台积电通常会根据订单时间、技术节点和客户战略价值来安排生产。微软既不是台积电的大客户,自身芯片设计也尚未成熟,因此在排产上只能居于非优先位置。为了减少对英伟达的依赖,微软不得不转向英特尔的18A节点,计划在明年实现量产。这一延误给微软带来了巨大的额外开支——如果Maia二代不能及时规模部署,微软明年可能仍需投入100亿美元购买英伟达芯片。
尽管目前英伟达在AI芯片领域依然占据绝对话语权,但三大巨头的自研浪潮正给市场带来巨大变数。2025年谷歌、亚马逊和微软先后发布的最新自研芯片,预示着2026年将是一场“性能vs.成本”的巅峰对决。
性能技术依然是英伟达的核心优势,而三大巨头的自研芯片则主要强调成本优势。英伟达今年的Blackwell架构B200 GPU,单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍。在推理任务中,Blackwell的能效比谷歌TPU高出30%,这得益于其先进的NVLink互联技术和Transformer引擎优化。黄仁勋对此充满信心,正如在GTC 2025大会上所言:“我们的GPU领先竞争对手整整一代。”这种领先不仅体现在峰值性能,还包括软件栈的深度整合:CUDA平台支持4000多个AI框架和库,开发者生态庞大到“开箱即用”,这正是英伟达的真正护城河。
但成本却是AI巨头自研芯片的最大卖点。亚马逊Trainium3已将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20%-30%。进入2026年,这一差距预计将进一步拉大。此外,AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势:谷歌的JAX和PyTorch/XLA集成已覆盖70%的AI工作负载,AWS Neuron SDK支持Llama和Stable Diffusion等开源模型,而微软的DirectML则无缝嵌入Visual Studio,吸引企业开发者。
亚马逊AWS计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU的无缝混合部署,预计训练费用再降40%。与此同时,2027年商用的谷歌TPU v8将引入光子互联和更先进的systolic array架构,针对多模态模型如Gemini 4的推理优化,成本优势或达50%以上。
亚马逊的目标是在明年实现50%的自研芯片占比,推动AWS在AI云市场的份额从31%升至35%。作为Anthropic的最大投资者和云服务商,Anthropic的大模型训练主要依赖AWS Trainium芯片。而谷歌TPU的市场份额已悄然攀升至8%,他们从今年开始向外部客户积极销售原先自用的TPU,外部销售占比已达20%。随着2027年Meta转用TPU,英伟达将真正感受到谷歌带来的竞争压力。
今年10月,Anthropic与谷歌签署了价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood,其余通过谷歌云租赁。这反映出AI大模型公司都在推动芯片多元化,尽可能同时使用多家芯片,而非只依赖英伟达GPU。
黄仁勋传记作者史蒂芬·维特认为:“英伟达最大的风险显然是谷歌。如果谷歌证明他们能用自家芯片维持领先的AI开发,那么这将给其他巨头树立榜样。”即便加紧部署自研芯片,这些巨头未来几年仍会继续采购英伟达产品。一个值得注意的细节是,谷歌和亚马逊在发布自研芯片时,都会提前通知英伟达,因为他们希望继续维持与英伟达的良好关系,保证自身芯片供应稳定。
未来这些巨头自研芯片会达到多少份额?英伟达的直接竞争对手、AMD CEO苏姿丰对谷歌TPU给出了高度评价:“多年来,谷歌在TPU架构上做得很好。但TPU是一种更偏向特定用途的设计,它缺乏GPU所具备的可编程性、模型灵活性,以及训练与推理能力之间的平衡。GPU将高度并行架构与高可编程性相结合,从而能够实现快速创新。从我们的角度来看,各种类型的加速器都有空间。然而,在未来五年内,GPU仍将明显占据市场大部分份额,因为我们仍处于行业周期的早期阶段,软件开发者希望拥有实验新算法的灵活性。因此,给ASIC类加速器(三大巨头的自研芯片都是)留出20%–25%的市场份额是合理的。”
换句话说,苏姿丰认为三大巨头的自研芯片未来可能夺走四分之一的市场份额。而且,AMD还计划在未来3-5年内抢到两位数的市场份额。此外,英伟达在中国市场同样要面对华为、寒武纪等本土竞争对手的挑战。
本文由主机测评网于2026-03-04发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328558.html