当前位置:首页 > 科技资讯 > 正文

AI算力格局重塑:ASIC芯片崛起挑战英伟达霸主地位

“我们为谷歌的成功感到高兴——他们在AI领域取得了巨大进步,我们也将继续向谷歌提供产品。英伟达目前领先行业一代——我们是唯一一个可以运行所有AI模型、并在各种计算场景中通用的平台。”

AI算力格局重塑:ASIC芯片崛起挑战英伟达霸主地位 AI芯片 ASIC 英伟达 谷歌TPU 第1张

11月25日,英伟达在社交平台X上的这番表态,被外界解读为对近期备受瞩目的谷歌TPU的间接回应。

就在声明前一天,有消息称Meta正计划从2027年开始在其数据中心部署谷歌的TPU,这笔潜在交易规模可能高达数十亿美元。受此消息影响,英伟达股价一度暴跌逾7%,市值蒸发近3500亿美元。这一市场震荡清晰地表明,AI算力领域正经历一场静默而深刻的变革。

在英伟达GPU看似牢不可破的市场垄断中,一股新生力量正悄然崛起。OpenAI开始租用谷歌的TPU芯片为其ChatGPT提供算力支持,亚马逊宣布其Trainium2芯片性能价格比优于其他硬件30%到40%,博通和Marvell的AI业务收入暴涨,一个明确的信号正在释放:ASIC的时代,已经到来。

01

ASIC芯片的崛起与繁荣

2025年,全球ASIC芯片市场迎来爆发式增长。据中商产业研究院数据,2024年全球ASIC芯片市场规模已约达120亿美元,到2030年,这一数字有望超过500亿美元。

AI算力格局重塑:ASIC芯片崛起挑战英伟达霸主地位 AI芯片 ASIC 英伟达 谷歌TPU 第2张

长期以来,英伟达凭借其GPU和CUDA生态,在AI芯片市场占据了超过90%的份额。然而,谷歌TPU作为ASIC芯片的代表,正被视为英伟达Blackwell芯片的可行低成本替代方案,逐渐改变市场竞争格局。在AI模型训练成本呈指数级增长的今天,通用GPU虽然灵活,但其本质上仍是为图形渲染设计的硬件,在面对神经网络的特定计算模式时,存在大量的效率损失。

TPU和GPU都能处理训练AI模型所需的大量计算,但实现方式截然不同。英伟达的GPU最初为渲染视频游戏图像而开发,通过数千个计算“核心”并行处理多项任务。而TPU专门为矩阵乘法这类AI相关工作而构建,这是训练神经网络的主要操作。

专用与通用,成为ASIC与GPU的核心差异。英伟达在声明中强调,其芯片相比谷歌TPU等专用集成电路芯片提供“更高的性能、多功能性和互换性”,后者通常只为单一公司或单一功能设计。

谷歌最新版本的TPU名为Ironwood,于今年4月发布,采用液冷设计,专为运行AI推理工作负载而设计。它有两种配置:256个芯片的集群,或更大的9216个芯片集群。TPU在某些AI工作上可能表现优于GPU,因为谷歌可以“去除芯片上许多不适合AI的其他部分”,使其能耗更低、运营成本更低。

先进封装技术成为ASIC发展的重要支撑。根据TrendForce集邦咨询研究,随着云端服务业者加速自研ASIC,为整合更多复杂功能的芯片,对封装面积的需求不断扩大。已有CSP开始考量从台积电的CoWoS方案,转向英特尔的EMIB技术。EMIB拥有数项优势:结构简化,舍弃昂贵且大面积的中介层;热膨胀系数问题较小;封装尺寸也较具优势。随着谷歌决定在2027年TPUv9导入EMIB试用,Meta亦积极评估规划用于其MTIA产品,EMIB技术有望为英特尔IFS业务带来重大进展。

02

博通与Marvell,双足鼎立

在ASIC定制芯片的繁荣背后,两大巨头成为最大赢家:博通和Marvell。这两家公司已形成近乎垄断的双寡头格局,合计占据ASIC市场超过60%的份额。

AI算力格局重塑:ASIC芯片崛起挑战英伟达霸主地位 AI芯片 ASIC 英伟达 谷歌TPU 第3张

博通作为绝对霸主,单独拿下55-60%的市占率。从业绩就能直观感受到它的强势 ——Q2财报里,AI业务收入直接突破44亿美元,同比增长46%,其中定制AI加速器还实现了两位数增长,这种增速在成熟芯片企业里相当亮眼。更关键的是它和大客户的深度绑定,最典型的就是与谷歌的合作:从谷歌第一代TPU芯片开始,博通就全程参与设计和制造,现在双方合作已经推进到3nm工艺的第六代TPU,2023年谷歌单在TPU相关合作上就给博通付了35亿美元,2024年这个数字预计会翻倍到70亿美元,甚至连第七代TPU的供应合同都已经提前锁定。除了谷歌,博通还跟Meta敲定了未来两年的AI基础设施合作,预计能带来数十亿美元收入;2025年更联手OpenAI启动了10吉瓦级的定制AI加速器项目,这套系统会装在OpenAI全球的数据中心里,靠博通的以太网解决方案实现算力集群扩展,整个项目估值超过千亿美金。而且博通不只是靠单一产品,它“定制加速器+高速互连”的策略很见效,以太网、PCIe Gen6这些配套IP能牢牢粘住客户,按照规划,2025年它的AI总收入预计能突破110亿美元,差不多是Marvell同期AI收入的4倍多。

再看Marvell的“逆袭打法”。它虽然份额不如博通,但增长势头极猛:26Q1数据中心营收达到14.41亿美元,占总营收的76%,同比还暴增了76%,这背后几乎全靠AI定制芯片的大规模出货。Marvell聪明的地方在于不跟博通正面硬刚,而是走差异化路线。在客户布局上,它搭建了“亚马逊+谷歌+微软”的三角合作网:给亚马逊量产5nm的Trainium训练芯片,这款芯片占了AWS ASIC出货量的85%,接下来还会接Inferentia v3推理芯片的项目;给谷歌代工5nm的Axion ARM CPU芯片,刚好和博通给谷歌做的TPU业务形成互补,不抢饭碗反而互相搭配;最近还拿下了微软Maia AI芯片2026年的量产订单,靠着这三大客户,Marvell甚至定下了2028年AI收入冲刺70-80亿美元的目标。

技术上,Marvell也有自己的侧重点,专门盯着“能效+互联”做文章。它已经能用上台积电最新的3nm制程工艺,还握有112G XSR SerDes高速互连IP、240Tbps Die-to-Die互连技术,在云数据中心场景里能做到“性能够强、功耗够低”——它和美光合作开发的HBM高带宽内存架构,能让AI加速器的算力密度提升25%,待机功耗却降低66%,正好戳中云厂商想控制总拥有成本的需求。另外,Marvell还搞了数据中心全栈布局,除了AI定制芯片,存储控制器、网络交换芯片这些配套产品也做得不错,比如它的112G SerDes IP,既能用在AI加速器上,也能装在自家的以太网交换机里,这种“芯片-互连-存储”的垂直整合能力,成了它区别于博通的关键优势。

其实这两家能长期垄断,核心是有三道别人难跨的门槛。一是技术壁垒高,两家都掌握了3nm制程量产能力,还有超20年的ASIC设计经验——Marvell过去25年交付了超过2000个定制项目,博通手里有覆盖计算、存储、网络的全场景IP库,新玩家想跟上,得先闯过“制程工艺+客户验证+生态适配”这三关。二是客户分化合理,博通主要做谷歌、Meta、OpenAI这些客户的“训练侧”算力需求,Marvell聚焦亚马逊、微软的“推理+通用计算”场景,互不抢食,反而能覆盖更多市场。2025年全球云服务提供商的ASIC出货量预计超500万颗,其中谷歌TPU的220万颗、AWS ASIC的180万颗,核心份额还是被这两家分了。三是行业趋势助推,现在生成式AI对算力的需求,正从通用GPU转向定制ASIC——毕竟ASIC在特定任务上算力成本降低了30%到40%,云厂商为了降成本,更愿意跟头部供应商深度绑定,比如OpenAI既选博通做定制加速器,又用英伟达的通用算力,这也说明双寡头在ASIC领域的地位很难被撼动。

03

生态和供应链,是关键

AI算力竞争远不止于芯片性能本身,更延伸到软件生态和供应链安全。

英伟达凭借CUDA生态系统构建了深厚的护城河,这是其声明中“唯一可以运行所有AI模型”的底气所在。谷歌则通过垂直整合,强化软硬件协同优势。谷歌上周发布了公司最强大模型Gemini 3,这款广受好评的最先进AI模型是在该公司的TPU上训练的,而非英伟达GPU。这一技术成就增强了TPU作为英伟达GPU可靠替代方案的可信度。

供应链多元化成为云巨头的重要考量。研究机构Gartner分析师表示,谷歌尽管拥有自己的芯片,仍是英伟达最大客户之一,因为它必须为客户保持灵活性。如果客户的算法或模型发生变化,GPU更适合处理更广泛的工作负载。与英伟达不同,谷歌不向其他公司出售TPU芯片,而是将其用于内部任务,并允许企业通过Google Cloud租用。

这种模式正在获得认可,当前TPU客户包括OpenAI联合创始人Ilya Sutskever去年创起的初创公司Safe Superintelligence,以及Salesforce、Midjourney和Anthropic。

国内市场方面,巨头企业在ASIC领域的布局同样亮眼,其中阿里巴巴自研的PPU芯片走在前列。据机构研判,这款PPU芯片在显存容量、片间互联带宽等关键指标上已超越英伟达A800,而在显存容量、PCIe等核心参数上,也能与英伟达H20比肩。

上市公司中,芯原股份近年来与互联网巨头展开深度合作,其AI ASIC业务在今年第三季度实现了翻倍式增长;翱捷科技则聚焦智能穿戴、端侧SOC等细分领域,目前ASIC业务在手订单充足,机构预计到2026年,该公司这一业务的收入将迎来大幅提升。

对于国产AI芯片的发展,多家券商也给出积极判断。中信证券指出,当前国产AI芯片自主可控进展顺利,除了阿里巴巴自研的含光系列AI推理芯片外,华为昇腾、寒武纪等企业的自研AI芯片也在持续迭代,这些成果有望缓解国内AI领域对海外算力的依赖。西部证券认为,企业拥有自研芯片可替代外部供给,能有效确保模型迭代与规模部署的连续性和可预期性。浙商证券则分析称,相较于GPU,ASIC芯片在特定场景下具备低成本、高性能、低功耗的优势,专用性和性价比更高,预计到2028年,ASIC市场规模将达到AI芯片整体市场的19%;同时该机构提到,ASIC芯片单价远低于GPU,约为GPU的1/5,随着Meta、微软等企业逐步大规模部署自研ASIC解决方案,ASIC总出货量有望在2026年某个时点超越英伟达。

ASIC的崛起并不意味GPU的衰落。正如谷歌发言人所回应的:“我们定制的TPU和英伟达GPU的需求都在加速增长。我们将一如既往地继续支持这两者。”这种多元化的策略,可能正是AI算力发展的未来方向——没有单一解决方案能通吃所有场景。

芯片行业“不是只有一个赢家的零和游戏”。即使是最积极的ASIC采用者,也仍在大量采购英伟达芯片。例如,Anthropic在与谷歌达成TPU协议几周后,就宣布了与英伟达的重大交易。

在AI技术快速迭代的今天,算力格局的重塑才刚刚开始。