回顾过去一个月的发展,几乎难以想象这正是那家在2023年因Bard失误而遭受全球科技界广泛嘲笑的Google。
上周(11月18日),Google推出了新一代大模型Gemini 3,以强大的性能超越了更大规模的模型,而基于Gemini 3 Pro的Nano Banana Pro进一步巩固了Google在AI生成图像领域的领先地位,也让OpenAI感到更加紧张。
不仅如此,Gemini 3也彻底扭转了“Google掉队论”的舆论风向,其自研TPU芯片被视为挑战英伟达算力霸权的关键变量,甚至传出Meta正在评估大规模采购TPU的消息,直接导致英伟达股价下跌近7%。随后英伟达官方在X(原Twitter)上发文表示:
“我们为谷歌取得的成就感到欣慰——他们在人工智能领域实现了重大突破,而我们也将继续向谷歌(云)供应产品。”
同时,Anthropic(Claude)在上个月也宣布了最新一批百万量级的Google TPU订单,包括OpenAI联合创始人、前首席科学家Ilya Sutskever新成立的SSI也在年初选择Google TPU作为算力基础。
客观而言,这一切不仅仅源于从Gemini 2.5到Gemini 3的“模型胜利”,更在于Google所展现的另一种叙事——体系化胜利。Gemini、TPU、Google Cloud、Android、Google Search这套曾被批评“过于缓慢”“过于沉重”的战略,如今突然显示出强大的竞争力。
行业态度的转变尤为显著。
今年之前,主流观点认为:Google已经老化、官僚化。如今却几乎形成反向情绪:Google的节奏稳健了、产品线统一了、技术底座开始释放威力。甚至有分析师将Google称为“苏醒的巨人”,暗示这家公司可能正在重新定义整个产业的技术路径。
然而,真正具有戏剧性的并非当前的赞誉,而是与过往评价的巨大反差。两年前,Google还在为Bard的“失误”公开致歉,被视作大模型时代最典型的失败案例之一。而如今,同一家公司却成为最受瞩目的焦点。
从被群嘲到被追捧,Google究竟如何实现这一转变?
2022年底的ChatGPT如同一道惊雷,而最彻底被惊醒的,正是当年开发Transformer架构、如日中天的Google。
基于Transformer架构和Scaling Law(扩展法则),GPT-3.5的横空出世让全球首次认识到通用大模型的潜力。Google内部的反应远比外界预想的更为激烈,搜索团队紧急成立“Code Red”应急小组,DeepMind与Google Brain在内部反复探讨技术路线,管理层连续数周加班开会,甚至内部邮件中都弥漫着压力与紧迫感:
“如果再迟缓,我们将被历史淘汰。”
在此背景下,Bard仓促上线,问题频出,甚至因一条错误回答导致市值暴跌千亿美元,社交媒体和科技圈纷纷质疑Google“是否还能担当重任”?至少在当时,更关键的不只是产品本身,而是许多行业观察者的判断:
Google失去了节奏感,沉迷于过往成就,被OpenAI打得措手不及。
这便是“Google掉队论”的起源。但真正的转折在于,Google在最受质疑的时期,并未改变战略方向。自2016年起,Google就宣布“AI优先”(AI-first),并持续投入了一条业内最系统、最完整的“全栈式AI”路径:
不仅作为全球第三大云计算运营商管理遍布全球的数据中心,自研AI芯片(TPU),还自主训练大模型,甚至开发AI应用(如Nano Banana、NotebookLM)。
更不用说,Google还拥有全球规模最大的搜索场景、Google Photos、YouTube上海量的多模态训练素材。这些看似“不够炫酷”“非爆发式”的长期工程,在ChatGPT的巨大冲击下并未被放弃。
落后并非方向错误,而是路径较长。既然路线正确,那就不能更换,而是要加速推进。因此,Google在经历ChatGPT的冲击和Bard的失败后,也进入了最激烈的调整阶段。
首先,当年被认为“不可能”的事情发生了:2023年4月,Google Brain与DeepMind合并为一个统一团队,两支全球顶尖的研究力量被整合为一支,技术路线和节奏由曾主导开发AlphaGo的DeepMind创始人Demis Hassabis(杰米斯·哈萨比斯)统一指挥。
对外的说法是“整合资源”,但业内皆知,这背后真正消除的是Google内部长期存在、几乎难以调和的技术分歧和组织壁垒。AI优先战略呼吁多年,但直到这次重组,才首次真正实现“力出一孔”。
同时,Google过去十年逐步构建的基础设施开始显现价值。TPU本就是为谷歌自身服务的芯片,最初为搜索和广告提供推理加速,随后逐步支撑内部模型训练。当大模型时代来临,这一优势恰好成为行业变量,也是Google与其他大模型厂商最核心的差异之一。
尤其是在ChatGPT之后,TPU v5、v6、v7(Ironwood)的研发节奏明显加快、规模扩大。从Anthropic开始,Google也开始将自家芯片推向外部大规模商用,从本地训练、云部署,到如今的专线算力、TPU@Premises等方案,逐步提升自家云的竞争力。
而从Bard到Gemini,本质上还伴随一次“架构统一工程”:从运行于Pixel和Chrome的Gemini Nano,到侧重吞吐与延迟的Gemini Flash,再到最强的Gemini Pro,背后都共享同一套架构、训练方法和评估体系。
这套统一后的体系,让Gemini 2.5在推理和多模态领域重返第一梯队,也让Gemini 3在视觉、语音、文本和代码理解上全面进化。Google过去被嘲笑的“缓慢”,恰恰源于它为这条统一路径打下基础,而非缺乏方向。
体系的成熟,最终仍需通过产品落地证明价值。在Bard失败后,Google可能也意识到模型的核心重要性,以及盲目生成式AI化的问题,选择了一条不同优先级的路线。
最激进的突破是搜索,不仅支持AI预览,还在早些时候果断上线了AI Mode。Pixel手机也是Google AI化改造的另一主力,云端和设备端不同尺寸、不同设计目标的Gemini模型,也在影像、翻译、信息处理及语音助手体验上带来质的提升,Magic Cue智能信息提示更是手机AI化的关键方向之一。
不同于现有产品的AI化改造,NotebookLM和Nano Banana作为原生AI应用的代表,则展现了Google探索AI时代的另一种路径,一个重构了学习与知识管理,一个将视觉生成推向更轻量、更快速、更自由的方向。
可以说,过去近十年Google将芯片、模型、云基础设施、搜索规模、移动端生态、视频和图像数据全部整合为一套体系。这看似笨重、迟缓,但当模型能力、算力底座和产品矩阵在同一路径上汇聚时,突然具备了他人难以复制的整体性。
如果将国内这两年的大模型竞争置于同一坐标系,豆包的领先已非“稍快一步”,而是彻底甩开身后所有追赶者。
QuestMobile数据显示,今年第三季度豆包App的月活已冲至1.59亿,超越DeepSeek,并遥遥领先其他AI应用。同时,火山引擎的公有云大模型调用量份额逼近一半,日均token调用量突破三十万亿。
这种规模带来的滚雪球效应,使豆包在用户侧、应用生态和模型调用上形成了“越用越强”的正向循环。
但若将视角稍加提升,又会发现豆包的领先并不意味着竞争已尘埃落定。因为在Google身上我们已看到,真正决定胜负的从来不是一两次爆发,而是体系。阿里这两年在模型、算力、开源和应用层的连续布局,正使其成为国内最有可能实现“Google式反转”的玩家。
千问App的爆发只是最表层的信号。真正支撑它的,是阿里过去两年在全球开源社区建立的Qwen模型号召力,以及大规模基础设施投入带来的底层优势。
从Qwen2.5到Qwen3-Max这条技术路线,将模型的推理、多模态和代码能力推至国际一线;Qwen在Hugging Face、GitHub的累计下载量已位居全球前列,甚至多次登上全球开源榜前端。
而阿里今年明确以千问取代通义,也是将这些底层能力重新整合为一个C端入口,使自身技术体系首次具备向大众规模化输出的可能。
某种意义上,千问当前的状态类似Google之前的阶段——模型足够强大,生态足够深厚,入口刚刚成型,真正的考验才刚刚开始。
而百度虽然在产品,尤其是C端产品的节奏上稍慢半拍,但仍具备极强的技术底座。文心5.0的原生全模态架构、万亿参数规模、与昆仑芯的深度绑定,让百度在技术完整性上保持独特地位。其AI云、城市级业务、自动驾驶体系,也使它在To B/To G领域拥有他人难以复制的纵深。
然而,这种体系化投入并不会自动转化为C端用户规模,中间仍有很长的路要走。
将国内这三家并列观察,更能理解Google的启示意义。豆包证明了“规模”本身就是能力的一部分,是最现实、最直接的飞轮;阿里证明了开源、全栈和大生态的深耕可在关键时刻形成反转势能;百度则证明了底座的完整性永远不会过时,只是在等待一个足够大的应用窗口将体系推向前台。
国内的竞争远未结束,而真正决定未来的,很可能不是谁跑得最快,而是谁能将模型、算力和应用最终整合为一条完整路径。
本文由主机测评网于2026-01-29发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260121644.html