当前位置:首页 > 科技资讯 > 正文

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位

仅从过去一个月的表现来看,人们很难将当下的Google与2023年因Bard失误而遭全球科技界群嘲的那家公司联系在一起。

就在上周(11月18日),Google正式推出了新一代大模型Gemini 3,其强悍实力碾压了众多更大规模的模型。基于Gemini 3 Pro的Nano Banana Pro更是巩固了Google在AI生成图像领域的领先地位,也让OpenAI感受到了前所未有的压力。

不仅如此,Gemini 3的发布彻底颠覆了“Google掉队论”。其自研TPU被视为打破英伟达算力垄断的关键变量,甚至有传闻称Meta正评估大规模采购TPU,这直接导致英伟达股价一度下跌近7%。随后,英伟达官方在X平台上发文回应:

“我们为Google的成功感到由衷高兴——他们在AI领域取得了重大突破,而我们也将继续为Google云提供支持。”

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第1张

与此同时,Anthropic(Claude开发公司)上月也宣布了最新一批百万级的Google TPU订单,而由OpenAI联合创始人、前首席科学家Ilya Sutskever新创立的SSI,也在年初选择了Google TPU作为其算力来源。

坦白说,这一切不仅是Gemini 2.5到Gemini 3“模型的胜利”,更是Google背后另一种叙事的胜利——体系的胜利。Gemini、TPU、Google Cloud、Android、Google Search这套曾被诟病“太慢”“太重”的战略,如今突然展现出强大的压迫力。

整个行业的态度转变尤为显著。

在去年之前,主流论调还是“Google老了、官僚化了”。如今却几乎完全逆转:人们认为Google节奏稳健、产品线统一、技术底座终于发挥威力。甚至有分析师将Google称为“醒来的巨人”,暗示它可能正在重新定义整个产业的技术路线。

然而,最戏剧性的并非今日的掌声,而是与过去的巨大反差。两年前,Google还在为Bard的失误公开道歉,被视为大模型时代最典型的失败案例。而如今,同一家公司却成了最受追捧的焦点。

从被群嘲到被追捧,Google究竟是如何做到的?

被ChatGPT惊醒,但路线从未动摇

2022年底,ChatGPT如一声惊雷,而最被这声雷震醒的,恰恰是设计开发了Transformer架构、当时如日中天的Google。

基于Transformer架构和Scaling Law,GPT-3.5的横空出世让全球首次意识到通用大模型的潜力。而Google内部的反应远比外界猜测的更为激烈:搜索团队紧急成立“Code Red”应急小组,DeepMind与Google Brain反复讨论技术路线,管理层连续数周加班开会,甚至内部邮件中都弥漫着紧迫感和危机感:

“如果再慢一步,我们将被历史淘汰。”

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第2张

在这种背景下,Bard仓促上线,问题频出,甚至因一条错误回答导致市值蒸发千亿美元,社交媒体和科技圈纷纷质疑Google“廉颇老矣”?至少在当时,更关键的并非产品本身,而是背后许多人的行业判断:

Google失去了节奏,安于现状,被OpenAI打了个措手不及。

这便是“Google掉队论”的起点。但真正的反转在于,在最被看衰的时刻,Google并未改变路线。自2016年宣布“AI优先”战略以来,Google持续投入了一条业内最重、最系统的“全栈式AI”路线:

不仅作为全球第三大云计算厂商运营着遍布全球的数据中心,自研AI芯片(TPU),还自主训练大模型,甚至开发AI原生应用(如Nano Banana、NotebookLM)。

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第3张

更不用说,Google还拥有全球规模最大的搜索场景、Google Photos、YouTube上海量的多模态训练数据。这些看似“不性感”“非爆发式”的长期工程,在ChatGPT的巨大冲击下并未被抛弃。

掉队并非方向错误,而是路线过长。既然路线正确,就不能更改,而应加码投入。因此,Google在经历ChatGPT冲击和Bard失败后,也经历了最猛烈的内部调整。

“Google式全栈”:十年投入,一朝兑现

首先,曾经被认为“不可能”的事情发生了:2023年4月,Google Brain与DeepMind合并为统一团队,两支全球顶尖的研究力量被整合为一,路线和节奏由曾主导AlphaGo的DeepMind创始人Demis Hassabis统一指挥。

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第4张

对外宣称是“统一资源”,但业内皆知,这背后真正消除的是Google内部长期存在、几乎无法调和的路线分歧和组织壁垒。“AI优先”战略喊了多年,直到此次重组,才真正实现“力出一孔”。

与此同时,Google过去十年逐步积累的底座开始显现价值。TPU原本就是为Google自身服务的芯片,先是为搜索和广告提供推理加速,随后逐步支撑内部模型训练。当大模型时代来临,这一优势恰好成为行业变量,也是Google与其他大模型厂商最核心的差异之一。

尤其是在ChatGPT之后,TPU v5、v6、v7(Ironwood)的迭代节奏明显加快。从Anthropic开始,Google将自研芯片对外大规模商用,从本地训练、云部署,到如今的专线算力、TPU@Premises等方案,逐步提升自家云服务的含金量。

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第5张

而从Bard到Gemini,本质上伴随着一次“架构统一工程”:从运行在Pixel和Chrome上的Gemini Nano,到侧重吞吐和延迟的Gemini Flash,再到最强的Gemini Pro,背后都共享同一套架构、训练方法和评测体系。

这套统一后的体系,使Gemini 2.5在推理和多模态上重返第一梯队,也让Gemini 3在视觉、语音、文本和代码理解上全面进化。Google过去被嘲笑的“慢”,恰恰源于它在为这条统一路线铺路,而非没有方向。

体系的成形最终需落地到产品才能证明价值。在Bard失败后,Google可能也意识到模型的核心价值,以及盲目生成式AI化的问题,选择了一条不同优先级的路线。

最激进的突破当属搜索:不仅支持AI预览,还在早些时候下定决心,正式上线了AI Mode。Pixel手机也是Google AI化改造的另一主力,云端和设备端不同尺寸、不同设计目的的Gemini模型,在影像、翻译、信息处理以及语音助手体验上带来质的飞跃,Magic Cue智能信息提示更是手机AI化的关键方向之一。

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第6张

与现有产品和服务的AI化改造不同,NotebookLM和Nano Banana作为原生AI应用的代表,代表了Google探索AI时代的另一种路径:一个重构学习与知识管理,一个将视觉生成推向更轻、更快、更自由的方向。

可以说,过去近十年,Google将芯片、模型、云基础设施、搜索规模、移动端生态、视频和图像数据全部整合成一套体系。这看似笨重、缓慢,但当模型能力、算力底座和产品矩阵在同一条路径上汇合时,突然具备了他人难以复刻的整体性。

阿里、百度能否实现“Google式反转”?

若将国内这两年的大模型竞争放在同一坐标系中,豆包的领先已不再是“快一点”,而是彻底甩开了身后的所有追赶者。

QuestMobile数据显示,今年第三季度豆包App月活已飙升至1.59亿,超越DeepSeek,遥遥领先其他AI应用。同时,火山引擎的公有云大模型调用量份额逼近一半,日均token调用量突破三十万亿。

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第7张

这种规模带来的滚雪球效应,使豆包在用户侧、应用生态和模型调用上形成了“越用越强”的正循环。

但如果把视角抬高一点,又会发现豆包的领先并不意味着这场竞争已经尘埃落定。因为在Google身上我们已经看到,真正决定胜负的从来不是一两次爆发,而是体系。阿里这两年在模型、算力、开源和应用层的组合拳,正让它成为最有可能走出“Google式反转”的国内玩家。

千问App的爆发只是最外层的信号。真正支撑它的,是阿里过去两年在全球开源社区建立起的Qwen模型号召力,以及大规模基础设施投入带来的底层优势。

从Qwen2.5到Qwen3-Max的路线,将模型的推理、多模态和代码能力推至国际一线;Qwen在Hugging Face、GitHub的累计下载量已位居全球前列,甚至多次登上全球开源榜前几名。

而阿里今年明确以千问取代通义,正是将这些底层能力重新压缩成一个C端入口,让自身的技术体系首次具备了向大众规模化输出的可能。

Google AI逆袭:全栈式体系如何从被嘲笑的Bard走向统治地位  AI Gemini TPU 全栈式 第8张

某种意义上,千问现在的状态很像Google之前的阶段——模型够强,生态够深,入口刚刚成型,真正的大考才刚开始。

而百度虽然在产品,尤其是C端产品的节奏上稍慢,但仍拥有极强的技术底座。文心5.0原生全模态架构、万亿参数规模、与昆仑芯的深度绑定,使百度在技术完整性上保持着独特地位。其AI云、城市级业务、自动驾驶体系,也让它在To B/To G领域拥有难以复制的纵深。

只是,这种体系化投入并不会自然转化为C端用户规模,中间还有很多路要走。

将国内这三家放在一起看,更能理解Google的启示意义。豆包证明了“规模”本身就是能力的一部分,是最现实、最直接的飞轮;阿里证明了开源、全栈和大生态的深耕可在关键时刻形成反转势能;百度则证明了底座的完整性永不过时,只是在等待一个足够大的应用窗口将体系推向前台。

国内的竞争远未结束,而真正决定未来的,很可能不是谁跑得最快,而是谁能将模型、算力和应用最终整合成一条完整的路径。