当前位置:首页 > 科技资讯 > 正文

Yann LeCun的AI新征途:世界模型引领后LLM时代变革

2025年11月19日,人工智能领域的权威人物、图灵奖得主Yann LeCun正式宣布,他将离开Meta公司,转而创建一家专注于高级机器智能(AMI)的新兴企业。

这一举动绝非普通的高管职业变动。

Yann LeCun的AI新征途:世界模型引领后LLM时代变革 世界模型  LLM批判 AI架构创新 具身智能 第1张

(CNBC报道:Yann LeCun即将离职,创立自己的初创公司)

这位图灵奖得主并未选择加入当前大语言模型的激烈竞争,而是投身于一个长期被忽视的领域:世界模型。

LeCun使用了一个尖锐的词语:大语言模型是通向人类级智能的“死胡同”。

在11月23日一场题为《大型语言模型是否真正理解?》的公开对话中,他明确指出:LLM擅长语言生成,但缺乏对现实世界的深层认知。

几乎同时,OpenAI前首席科学家Ilya Sutskever在11月25日的播客中也提出:“单纯堆叠GPU算力”的时代已经终结。

一周之内,两位深度学习领域的先驱不约而同地对主流技术路线提出质疑。

这并非偶然,而是技术路线集体转向的明确信号:后LLM时代,正在逐步成型。

第一节 | 为什么他说大模型是死胡同?

在深入探讨世界模型之前,必须首先厘清:Yann LeCun为何将LLM称为“死胡同”。

他给出的理由,比外界想象的更为系统化。

① 模型规模膨胀,但理解能力停滞

LeCun的原意是:LLM在语言表层表现优异,但它们并未真正理解世界。缺乏常识支撑,也无因果关系认知,仅仅是大量统计相关性的集合。

换言之:扩大规模能让模型更擅长模仿人类对话,但无法使其更像一个理解世界的智能体。

事实上,Meta的Llama 4便是典型例证。2025年4月发布后,它在实际应用中的表现远低于基准测试,甚至被开发者质疑过度优化了评测指标。

这恰好印证了LeCun的判断:语言流畅性提升了,但对世界的理解力并未同步增强。

② LLM的能力上限,已在实验室中显现

他在公开对话中强调:我们看到性能增长正在趋于饱和。更大的模型,未必带来更高级的真实智能。

训练数据逐渐接近极限,算力成本呈指数级上升,而理解力却没有相应突破。

这就是他所谓的死胡同:持续增加算力投入,边际效益越来越低。

OpenAI前首席科学家Ilya Sutskever也在访谈中表达了类似观点:单纯将算力规模扩大百倍,不会引发质变。

③ 语言仅是副产品,物理世界才是智能核心

他的核心论点是:

语言是人类智能的副产品,而非核心机制。

这句话背后的逻辑是:语言仅能描述世界的一部分,而真正的智能源于对物理世界的建模、预测与行动能力。

但LLM无法做到这一点。它们甚至不理解杯子为何不会穿透桌子。它们知晓语言中的规律,却不知晓世界的规律。

飞机的设计灵感来自鸟类,但并非简单模仿鸟的飞行方式。同样,智能也不是通过模仿语言表面规律而产生的。

④ LLM无法进行规划,更难以付诸行动

LeCun的批判重点在于:LLM仅在对话中显得聪明,但在涉及多步推理、长期规划、具身交互时,能力急剧下降。

他举了一个鲜明的对比:

一个青少年只需20小时就能学会驾驶汽车。 但我们至今仍未实现Level 5级别的自动驾驶。

一个孩子首次尝试就能清理餐桌、装满洗碗机。 但我们连能够处理家务的机器人都尚未造出。

这些对比表明:智能不是说话的能力,而是行动的能力。而这正是LLM的薄弱环节。

LeCun的逻辑并非反对大模型,而是认为:预测语言这条路径无法抵达终点。

要让AI真正具备理解、推理与行动能力,必须更换一套基础架构。

第二节 | 世界模型:下一代AI将如何认知世界?

如果语言模型无法理解世界,那么该如何构建真正的智能?

LeCun的答案是:让AI学会观察世界。

他指出,未来的AI必须像人类和动物一样,能够从多模态输入中构建对世界的内部表征,并基于此进行预测和行动。

这种能力,GPT-4没有,Claude、Gemini也同样缺失。但猫具备,婴儿具备,人类更具备。

① 什么是世界模型?

LeCun解释说:我们通过预测下一个词来训练语言模型,是因为语言词汇有限,可以枚举。但真实世界无限复杂,预测像素级未来根本不现实。

真实世界是高维、连续、混沌的感官流。人类并非通过预测下一个字来理解世界,而是通过观察、记忆、归纳,在大脑中形成一个抽象世界的内部投影。

例如:

婴儿无需他人告知重力概念,摔几次物品就明白了

猫无需语言指导,观察几次就知晓跳跃多高能登上桌子

人类驾驶20小时便能掌握,靠的不是背诵规则,而是建立了对速度、距离、惯性的直觉模型

LLM缺失的正是这个投影空间,它没有世界的内部表征。

这就是LeCun正在构建的新路径:联合嵌入预测架构(JEPA)。

② JEPA:一种全新的学习范式

JEPA与LLM的核心差异体现在多个维度。

  • 在输入形式上,LLM只处理语言标记,而JEPA可处理视频、图像、传感器等多模态数据。
  • 在学习目标上,LLM是预测下一个词,JEPA则是预测抽象状态的变化。
  • 在学习方式上,LLM依赖离散序列建模,JEPA结合了表征学习与因果建模。
  • 最关键的是,LLM没有行动能力,而JEPA天然具备规划与执行接口。

LeCun用了一个形象比喻:用LLM去理解真实世界,就像仅靠听说来教人开车。你可以记住所有交通规则,但永远学不会实际驾驶。因为语言描述不了摩擦力、惯性、视野盲区的感觉,而这些正是行动智能的核心。

③ 从模拟世界起步,训练下一代AI

LeCun正在AMI推动的,是一种类似动物学习的AI训练模式:首先在模拟环境中让AI自主互动,然后从互动中提取因果关系,形成持续记忆,最终具备规划行动的能力。

这种模式不再依赖更多语言标记,而是依赖更精准的世界模型。

他说:我们不需要能背诵百科全书的AI,我们需要能用眼睛和双手理解世界的AI。

如果说LLM是语言的大师,世界模型就是物理世界的学徒。

Yann LeCun选择押注后者。这不仅是技术路线的分岔,更是对通用人工智能本质的重新定义。

第三节 | 不只LeCun:另一条探索路径也在展开

质疑LLM路径的,不止LeCun一人。Sutskever也认为,缩放时代已经结束,下一代智能需要新的架构基础。

两位深度学习先驱达成共识,但他们给出的解决方案截然不同。

① LeCun押注世界模型,Sutskever押注安全超智能

LeCun的方向明确:让AI具备对物理世界的理解与行动能力。通过自监督学习、表征建模、因果预测,构建能够真正观察世界、认知世界的系统。他预测10年内会出现具身AGI的原型。

Sutskever的关注点则在另一边:当前AI系统的泛化能力远不如人类,在基准测试上表现出色,但在真实场景中容易陷入错误循环。这种脆弱性若不解决,规模越大风险越高。他创立SSI公司,旨在AI能力持续提升的同时,确保其安全可控。

一句话概括:LeCun要教AI理解世界并行动,Sutskever要让AI在变强过程中保持可控。

② 两条路线背后的不同关切

这种分歧源于两人的核心关切。

LeCun关心的是AI如何有效泛化、如何在现实世界中行动。他强调:我们缺乏的不是算力,也不是数据,而是架构。

Sutskever关心的是AI的安全性与可控性。他认为在解决泛化脆弱性之前,单纯追求能力提升是危险的。

他们代表了后LLM时代的两个方向:架构创新派与安全优先派。

过去十年,AI竞争的是模型规模与训练数据。但当两位先驱先后离开大厂时,他们告诉我们:游戏规则已变。

下一阶段的比拼,是谁先发明新架构、谁的系统既强大又可靠。

这是一个时代的谢幕,另一个时代的开端。

第四节 | 一场转向,正在悄然发生

当图灵奖得主公开质疑主流路线,当OpenAI启动硬件项目、Google引进波士顿动力CTO,当数十亿美元投资流向具身智能,一个问题浮现:后LLM时代,究竟会是何样?

① 工业界的悄然转向

尽管LLM仍在快速发展,但一些关键变化已在酝酿。

OpenAI的硬件野心逐渐显露。11月24日,公司确认首个AI硬件原型已完成,这是与苹果前首席设计师Jony Ive合作的成果。按计划,这款无屏幕AI设备将在2年内发布,彻底改变人与AI的交互方式。

Google的多路线策略同样值得关注。11月18日发布Gemini 3 Pro,11月21日又挖来波士顿动力前CTO Aaron Saunders,推动Gemini成为通用机器人控制平台。目标是让同一模型适配任何形态的机器人,即开即用。

李飞飞的World Labs在融资2.3亿美元后,11月12日发布首个商业产品Marble,一个生成式世界模型平台。

具身智能领域更为活跃:Figure AI估值390亿美元,Tesla Optimus计划2026年开始量产。

这些动向指向一个共识:下一代AI不会只存在于对话框内。

② 两条路线,均需时间沉淀

无论是LeCun的世界模型,还是Sutskever的安全超智能,都不是短期内能见成果的方向。

LeCun说需要几年到十年,Sutskever说需要5到20年。这意味着:当前的LLM仍是主流应用的基础。GPT、Claude、Gemini会继续迭代,继续服务亿万用户。

但长期的技术制高点,可能不在这条路上。谁先在新架构上取得突破,谁就掌握了下一个十年的话语权。

这是一场需要耐心的马拉松,而非百米冲刺。

③ 对创业者和开发者的启示

LeCun的转向传递了几个重要信号:

首先,勿迷信规模。更大的模型不等于更好的智能,架构创新的空间依然广阔。

其次,垂直场景蕴含机会。世界模型最先落地的可能不是通用AGI,而是机器人、自动驾驶、工业控制等需要物理交互的领域。

第三,开源仍至关重要。LeCun一直是开源的坚定支持者,他的新公司AMI将继续这条路线,这意味着小团队也有机会参与新范式的探索。

最后,需做好长期准备。这不是一两年就能看到回报的方向,但可能是未来十年最重要的方向。

LeCun曾言:真正的智能不在语言表面,而在对世界的深层理解

这不是对LLM的全盘否定,而是对AI未来的更大想象。大模型已证明了规模的力量,但下一步的突破,可能源自完全不同的架构。

真正的AGI,不会困于对话框内,而会出现在能够理解世界、执行任务的系统中。

这条路上,探索才刚刚启程。

📮 原文链接

https://jannalevin.substack.com/p/do-llms-understand-ai-pioneer-yann

https://www.businessinsider.com/openai-cofounder-ilya-sutskever-scaling-ai-age-of-research-dwarkesh-2025-11

https://techcrunch.com/2025/01/23/metas-yann-lecun-predicts-a-new-ai-architectures-paradigm-within-5-years-and-decade-of-robotics/

https://www.abzglobal.net/web-development-blog/ilya-sutskever-yann-lecun-and-the-end-of-just-add-gpus

https://www.bloomberg.com/opinion/articles/2025-11-12/yann-lecun-meta-and-mark-zuckerberg-pick-groupthink-over-ai-godfather