谷歌骤然觉醒,左手以TPU瓦解英伟达的芯片暴利,右手借Gemini 3围攻OpenAI的流量王国。硅谷AI的"黄金时代"就此终结,血腥的三方混战正式拉开序幕。
局势骤然反转!
谷歌Gemini 3 Pro一夜之间横扫基准测试排行榜,OpenAI在预训练瓶颈前折戟,Nvidia芯片霸权地位风雨飘摇——
昔日被誉为"天行者"的两大巨头双双受挫,价值63亿美元的算力资源大迁移一触即发,华尔街对AI的估值泡沫何时破裂?
近期,谷歌再次站上人工智能舞台的中央——
然而过去三年间,AI传奇的主角当属两家公司:OpenAI与Nvidia。
前者凭借ChatGPT横空出世,被寄予下一代消费科技巨头的厚望;后者原是以游戏显卡闻名的周期股,在黄仁勋引领下,蜕变为AI革命最关键的基础设施供应商。
但最近两周,这两大科技巨头同时被Gemini带来的压力所笼罩,面临最严峻的考验:谷歌帝国正在发动全面强势反击。
谷歌凭借Gemini 3同时革新了OpenAI和英伟达两家的命运。
知名科技博主Ben Thompson,将OpenAI与Nvidia比作《星球大战》中"原力觉醒"的天行者。
此前,他们就是AI时代的英雄,是时代眷顾的"天行者";但现在,昔日沉睡的科技帝国"谷歌"开始反击了。
谷歌、Nvidia和OpenAI,三分AI天下,格局已成!
谷歌的第一记重拳是Gemini 3。
谷歌高管毫不讳言,直接宣称"Gemini 3开启了智能的新纪元"。
在多项基准测试中,Gemini 3超越了OpenAI最先进的GPT-5——当然,实际应用表现仍有波动。
据DeepSeek近期测试,Gemini-3-Pro在多项基准测试中全面领先GPT-5。
庞大的模型规模与海量算力投入,是Gemini 3的最大优势。
这一点尤为关键,因为在突破GPT-4级别的规模与复杂度上,OpenAI已遭遇瓶颈。
OpenAI在多类任务中表现更优,突破来自一系列推理模型,但代价是高昂的时间与算力成本。
谷歌可谓出奇制胜,让OpenAI坐立不安。为了解决预训练扩展问题,OpenAI计划发布下一代大模型,据称性能将超越Gemini 3。
据最新爆料,OpenAI已准备好了内部代号"Garlic"(大蒜)的新一代预训练大模型。
扩展阅读:奥特曼紧张了!GPT-5.5"大蒜"决战谷歌,红色警报紧急拉响
Gemini 3的成功对Nvidia而言看似利好:
其他企业必须立即回应Gemini的挑战,而非等待自家芯片成熟——谷歌的TPU研发始于十年前,其他竞争者若想追赶,坚守Nvidia平台仍是现实选择;
Gemini再次印证算力规模才是超越或追赶的核心要素。
然而,这一分析忽略了一个关键点:如果谷歌将TPU作为Nvidia的替代方案对外销售呢?
这家搜索巨头正步步为营:
先与Anthropic达成合作,
再传出与Meta联手的风声,
继而瞄准第二代云服务商(其中多由加密货币矿商转型,正利用能源优势进军AI)。
Nvidia危机已现,将面临价值63.2亿美元的推理算力大迁移。
突然间,Nvidia被迫应战:若芯片领域出现强力对手,长期增长前景与高利润率必遭质疑。
无疑,这也为OpenAI的下一代预训练模型增添压力:基础模型本身依然举足轻重,OpenAI需要更优解,而Nvidia亟需证明其芯片能承载这样的突破。
值得深思的是:谷歌对哪家企业威胁更大?为何?
Nvidia虽日进斗金,且若Blackwell表现出色,下一代Vera Rubin芯片前景更佳;加之除Meta外,其他超大规模云厂商未必天然倒向谷歌。
反观OpenAI:亏损持续扩大,业务战线越铺越薄,甚至承诺以尚未实现的收入预购天量算力。
不过,OpenAI已布下了一张大网,在硅谷的主导地位前所未有:
芯片巨头(Nvidia、博通)、云服务商(微软、甲骨文、谷歌、AWS)、另类托管商(CoreWeave),乃至Meta/Anthropic及部分政府/主权级合作方,OpenAI全部接入其中
Ben认为,OpenAI成功的可能性似乎更高。
如果把时间倒回一两年,Nvidia GPU相较谷歌TPU,还有三道明显的护城河:
性能优势:GPU算力碾压
架构灵活性:GPU比专用TPU更具通用性
CUDA生态:开发者体系筑起高墙
而OpenAI的壁垒则在于:顶级模型、广泛API调用、海量ChatGPT用户。
但如今,核心问题浮出水面:
若两家公司的最大优势同时瓦解呢?
这正是过去两周行业震荡的核心拷问——
当TPU性能比肩GPU,Nvidia的护城河是否依然坚固?
若失去"战无不胜"光环,OpenAI能否长远存续?
灵活性仍是Nvidia的第一防线。
Nvidia的灵活性真实存在。这不是偶然,正因GPU可在不同任务间灵活切换,微软和Meta才愿意为其大幅增加资本开支。
相比之下,TPU在硬件层面更专用,在软件层面也更难开发。只要客户重视灵活性,Nvidia就依旧是默认选项。
而CUDA被撕开第一道口子。
CUDA一直是Nvidia的核心壁垒之一。这一开发平台不仅提供底层硬件访问权限,还形成了开发者网络效应:只要你家技术栈跑在 Nvidia 上,就更容易招到熟手工程师。
但这反过来也带来挑战。对于像大型云厂商这种"超大客户",CUDA的优势可能反成包袱。
虽然他们工作负载种类繁多,正好能充分发挥GPU的通用性,但他们也有足够资源,去打造自有软件栈绕过 CUDA。
过去没这么做,是因为投入产出不划算;可一旦投资规模上升到"千亿美元"级别,"值得"与否的标准就变了。
扩展阅读:CUDA被撕开第一道口子!谷歌TPUv7干翻英伟达
AMD的历史给Nvidia的教训:大客户会出手。
对比AMD在数据中心的崛起,很有启发。
这波崛起并非发生在本地部署或政府系统(这些仍由 Intel 主导),而是在那些大型云厂商手中。
他们愿意投入精力,重写极低层级的软件栈,以实现对AMD与Intel的硬件"中立",从而让性能领先的AMD赢得市场。
如今,Nvidia面对的局面也一样:客户数量不多,但都是大体量、集中度极高的巨头。
他们有资源、有动机(虽尚未全面启动)去"攻破" CUDA的壁垒,就像他们曾打破Intel的垄断一样。
其实,Nvidia早就意识到此隐患,已有所行动。
Nvidia用DGX Cloud,抢占这一批"已经绑定"的市场。
而NIM(Nvidia Inference Microservices)也是另一种方式的"锁定手段"。
与此同时,还有一个值得关注的现象:Nvidia对Blackwell的定价似乎比外界预期的"温和"不少。
当然,现在Blackwell的利润率依然可观。这个时代,全世界都渴望算力,GPU理应赚钱。
也因此,这场关于GPU与TPU谁能胜出的争论,也许本身就有些"伪命题":它背后的假设是"零和博弈",但真正拥有决定权的,可能是台积电(TSMC)——
他们既生产GPU,也代工TPU,是真正能够控制AI泡沫速度的"闸门"。
摩根士丹利预计,谷歌将在2026年生产逾300万颗 TPU,2027年增至约500万颗。
谷歌内部消息人士称,部分客户被告知该数字可能更高,但台积电是否能提供足够产能尚不明确。
谷歌通过Broadcom下单定制最强版本的 TPU,后者不仅与台积电协作制造芯片,也为 TPU 提供部分核心技术。
据透露,Nvidia当前的GPU年产量约为谷歌TPU的三倍。
与Nvidia相比,ChatGPT面向的是两个体量更大的市场。
其一,是API市场,也就是开发者用户。
OpenAI自称,这类用户的黏性更高、流动性更低。
这确有道理:开发者使用AI模型的API,本质上是为了打造好产品。
虽然大家总挂在嘴边说要"避免被绑定",但对大多数公司来说,在熟悉的系统基础上优化迭代,带来的收益远远大于切换平台的代价。
而OpenAI,恰恰是很多开发者最熟悉的平台。相比之下,谷歌要"敲开应用之门"去抢客户,比起只需向企业高层"展示一份成本优化Excel表格"的方式,显然更费劲。
当然,API成本依然重要。而这方面,谷歌几乎胜势已定。
但真正最大、最关键的市场,是消费者市场——也就是谷歌的"老本行"。
在搜索上,谷歌不断"巩固地盘",但真正决定胜负的,是它对用户需求的掌控力。
此前,Ben点明了谷歌的优势:
数字化程度越高,集中趋势越强(这与互联网早期的去中心化愿景恰恰相反)。
……
聚合者(Aggregator)靠不断优化用户体验赢得市场,因此也更受欢迎,不同于传统垄断企业。
确实,关于谷歌是否"掐死"了生态中那些依赖搜索的网站——比如购物搜索、本地搜索等——外界有不少批评。但你很难说谷歌阻止了用户访问这些网站或下载他们的App。
对互联网而言,有时候,免费的才是最贵的。
在对抗谷歌时,ChatGPT与Nvidia的护城河存在本质分野
英伟达的困境:当超大规模云厂商CEO一纸令下,CUDA生态墙可能从内部被重构
OpenAI的韧性:改变每周8亿+用户主动养成的使用习惯,是一场必须逐个心智攻防的战争
Ben Thompson认为这揭示了一个更深刻的观点:在技术护城河上,浅层分析往往聚焦于"切换成本";但事实上,护城河的强度更关键地取决于独立用户数量。
2018年, Ben提出了"护城河图谱"(Moat Map)理论,用两个维度来分析科技巨头的商业模式。
第一个维度,是供应商的差异化程度:
第二个维度,是网络效应的"外部化"程度:
将这两个维度结合起来,就有了"护城河图谱":
右上角是平台型公司(如应用商店),通过赋能差异化供应商抽成获利
左下角则是聚合型公司——它们彻底商品化供应商,通过汇聚注意力并以广告变现
ChatGPT正处在左下角的聚合象限:
大语言模型实现了比谷歌/Facebook更极端的"内容商品化"——答案是对海量知识的统计合成,且为每个用户生成独特响应
理论上,每个用户的使用行为都在持续优化模型
这种模式天然呼唤广告变现,ChatGPT理应拥抱广告模式。
这不仅是为了钱,更是为了成为更好的产品——有更多用户、更高频使用、更多反馈、更精准理解用户意图。而用户的数据,反过来提升回答质量。更重要的是,广告模式将极大加深OpenAI的护城河。
过去,谷歌被Ben视为聚合理论的终极主角——控制需求即掌控一切。
互联网让"得用户者得天下"取代了"得渠道者得天下":谷歌、Uber、Airbnb这些聚合器靠海量用户反制供应商,形成赢家通吃的垄断
如今,ChatGPT的8亿用户成为新信仰,但其拒绝采用聚合者最优商业模式(广告)的行为,正让理论面临终极考验:
当既有聚合者(谷歌)以全栈优势(变现、数据、基建、研发)碾压时,仅凭产品优势能否守住王座?
谷歌曾凭更优产品在开放市场中赢得搜索之战;如今,它试图以资源碾压夺回AI王座。
而OpenAI手中最大的牌——8亿用户形成的习惯壁垒——是否足以抵御一场全面战争,取决于它能否意识到:
拒绝广告太天真,放弃了将用户规模转化为更深护城河的机会。
当算力洪流撞上用户心智,AI王座岂容天真守望?
谷歌的反击,已非风暴,而是灭顶的海啸——谁先醒悟,谁便主宰下一个万亿帝国。
参考资料:
https://stratechery.com/
https://www.ainewshub.org/post/nvidia-vs-google-tpu-2025-cost-comparison
https://www.ainewshub.org/post/ai-inference-costs-tpu-vs-gpu-2025
https://www.theinformation.com/articles/googles-ai-chips-stack-nvidias
本文由主机测评网于2026-02-01发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260222256.html