终于畅所欲言!
即将在年底正式告别Meta的Yann LeCun,如今毫无保留地分享了他的真实想法。
他对大语言模型实现AGI的前景不抱希望,并尖锐地批评道:
通向超级智能的路径——仅仅依赖扩大语言模型规模、使用更多合成数据进行训练、雇佣大量人力在后训练环节“教导”系统,以及发明强化学习的各种技巧——在我看来完全是无稽之谈。这条路根本走不通。
对于即将成为“前东家”的Meta日益封闭的做法,他也毫不掩饰地表达了不满:
Meta的开放程度正在急剧下滑……FAIR被迫将精力更多投入短期见效的项目,而非传统上追求的长期探索。
他还顺手预告,自己即将创立的新企业仍将秉持开源精神。
以上言论来自LeCun最新参与的一档播客访谈。在近两个小时的对话中,他深入剖析了:
为何硅谷对扩展语言模型的执着是一条死胡同?
为何AI领域最棘手的挑战是实现狗的智能,而非直接跃升到人类水平?
为何他的新公司选择在抽象表示空间中进行世界模型预测,而非逐像素生成?
……
简而言之,无论是在Meta近十二载的研究历程,还是即将开启的创业征途,亦或是他毕生追求的AGI愿景,都在这里倾囊相授。
挥别效力十二年的老东家,LeCun的下一站已然清晰——自主创业。
专注于当年在Meta备受冷落的世界模型。
LeCun透露,他的新公司名为Advanced Machine Intelligence(AMI),将把世界模型研究放在首位,并坚决采取开源路线……
这一举动无异于将他与Meta的分歧公之于众。
毕竟众人皆知,自亚历山大王掌舵以来,Meta迅速转向,从昔日的开源旗手日渐变得壁垒森严。
△
LeCun更是直言:
FAIR曾经因其高度开放的理念对AI研究生态产生了深远影响。但近几年来,包括OpenAI、谷歌、Meta在内的巨头都日趋保守。
因此,与其留在Meta束手束脚,不如另起炉灶投身热爱的研究。
LeCun强调,若不公开发表成果,就算不上真正的研究。闭门造车只会沦为自我欺骗,一旦脱离学术界的检验,所谓的突破很可能只是一厢情愿的幻觉。
他见过太多类似案例:内部对某个项目赞不绝口,却没意识到外界早已走得更远。
更何况Meta如今只追逐短期项目效应,实则难以产生有价值的贡献,而真正的突破必须依靠公开成果,这是唯一的通途。
所以新公司的路径与Meta当前模式截然相反。
不仅要开展研究,还将围绕世界模型与规划能力推出实际产品,AMI的最终愿景是成为未来智能系统的核心供应商之一。
之所以押注世界模型,是因为LeCun坚信:
构建智能系统的正确方法论就是世界模型。
这也是他数十年如一日深耕的方向,在纽约大学和Meta的诸多项目中已取得快速进展,如今正是将研究转化为实业的时机。
至于他离开后,一手创立的FAIR将走向何方?LeCun也略微透露了内情。
首先他澄清,亚历山大王并非他在Meta的接班人。
亚历山大王在内部的职责更侧重于整体运营管理,并非专职科研领导,他掌舵的超级智能实验室下设四个分支:
FAIR:主攻长期研究;
TBD实验室:聚焦前沿模型(主要是LLM);
AI基础架构部门:负责软件基础设施;
产品部门:将前沿模型转化为聊天机器人等应用,并集成至WhatsApp等平台。
其中FAIR已交由Rob Fergus掌管,他也是LeCun在纽约大学的同事。目前FAIR对论文发表的重视程度下降,更倾向于短期项目以及为TBD实验室的前沿模型提供支撑。
而LeCun本人目前仍挂名FAIR的AI科学家,但任期仅剩三周。
LeCun的离去,标志着Meta以FAIR为代表、长达十年的“学院派”研究黄金时代正式落幕,也宣告了他彻底告别LLM、转投世界模型的坚定抉择。
那么问题来了:为何LeCun认定世界模型正确、LLM谬误?
核心原因在于,LeCun认为二者根本是为解决不同的问题而生,“根本不是同一回事”。
前者负责处理高维、连续且嘈杂的数据模态(如图像或视频),这些构成了与现实世界感知交互的基础;
后者在处理离散、符号化的文本数据上得心应手,却完全无法驾驭上述现实世界数据,LeCun对其评价为“一塌糊涂”。
他甚至断言,处理图像视频类数据“绝不能使用生成模型”,尤其是那种将数据tokenize化为离散符号的生成模型(而这恰恰是大多数LLM的根基)。
大量实证证据表明,这条路根本走不通。
基于此,LeCun坚信仅靠文本数据训练,AI永远无法企及人类智能水平。
他将LLM训练所需的巨量文本数据(约30万亿tokens)与等量字节的视频数据(约15000小时)进行对比后发现:
15000小时的视频信息量相当于一个4岁孩子清醒时接收的视觉信息总量,但这仅相当于YouTube半小时的上传量,且后者信息结构更复杂、冗余度更高。
这说明,视频这类真实世界数据的内在结构远比文本丰富。
△
正是因为深刻领悟到“文本无法承载世界的全部结构与动态”,LeCun将目光重新投向了一条更贴近人类学习本质的路径——让机器像婴儿一样,通过观察世界的连续变化,主动构建一个内在、可预测的模型。
而这,正是LeCun心中世界模型的画像。
在他看来,世界模型的核心功能是预测特定行动或系列行动所带来的后果,其基石是预测与规划。
预测:基于当前状态与潜在动作,推演出未来可能的状态(或状态的抽象表征);
规划:以预测为基础,通过搜索与优化,确定实现预设目标的最佳行动序列。
至于何为“好的”世界模型,LeCun驳斥了必须完美模拟现实的观点,强调抽象的重要性。
过去许多人认为世界模型必须是“重现世界所有细节的模拟器”,如同《星际迷航》中的全息甲板。
(全息甲板是由计算机控制的密闭空间,通过全息投影技术生成三维逼真的环境与物体。)
但LeCun认为,这种想法“错误且有害”,实践证明抽象往往更高效。
所有科学与模拟都依赖于“发明抽象”,例如计算流体力学忽略分子等底层细节,仅关注宏观变量(如速度、密度、温度),而这种抽象能带来“更长期、更可靠的预测”。
因此,有效的方法是学习一个抽象表示空间,它会“剔除输入中所有不可预测的细节,包括噪声”。
由此他总结道,世界模型不必是完全的模拟器,“它们是模拟器,但运行在抽象表示空间中”。
至于具体实现,他目前倾向于通过联合嵌入预测架构(JEPA)在抽象表示空间中进行预测。
而关于JEPA思想的缘起,LeCun带我们回顾了20年来“AI如何学习”的曲折演进。
LeCun坦言,在长达近二十年的时间里,他一直坚信构建智能系统的正确路径是某种形式的无监督学习。
这就好比婴儿认识世界,并非依靠“标注”来习得。同理,真正的智能也不可能依赖海量人工标注数据来堆砌。
因此,他最初便将重点放在无监督学习上,这种“让机器从原始数据中自行发现规律”的设计完美契合他的理念。
说干就干,他开始尝试训练自编码器来学习表示。
其核心逻辑是:先压缩,再还原。
比如将一张图片(输入数据)经由编码器压缩成紧凑、低维的“摘要”(即表示或特征);然后将这个“摘要”经由解码器重构,还原成与原始输入尽可能相似的图片。
一旦这个“摘要”能够近乎完美地还原原始输入,那么它必然抓住了数据中最关键、最本质的信息。
因此,若后续其他任务使用这个“摘要”,其表现大概率也不错。
然而,后续研究让LeCun意识到,“坚持表示必须包含所有输入信息的直觉是错误的”。
因为他发现,AI在上述学习中存在“作弊”行为。
就像数学上的“恒等函数”——输出只是输入的另一种形式,AI根本不理解所学内容,只是在“抄答案”。
连理解都没有,又何谈真正的智能?
于是,LeCun引入了“信息瓶颈”思想来纠偏。
其目的是限制表示的信息容量,迫使系统学习更精简、更有用的表示,即所谓的抽象能力。
后来他与多名学生在这一方向上做了大量工作,希望以此预训练极深的神经网络。
然而,随着深度学习迎来历史转折点——全监督学习开始崛起,有关无监督或自监督学习的研究一度被搁置。
当时的情况是这样的。
在2010年代初期,研究者面临一个核心难题:理论上有强大表达能力的深度神经网络,在实践中却极其难以训练。梯度不是消失就是爆炸,网络深层的参数几乎学不到东西。
而几项简洁却革命性的工程改进,彻底改变了局面。
一是ReLU的胜利。之前普遍使用Sigmoid或Tanh作为激活函数,其梯度在两端会进入饱和区,导致反向传播时梯度信号迅速衰减,无法有效更新深层权重。这就是“梯度消失”问题。
而ReLU的梯度在正区间恒为1,完美解决了梯度消失问题,计算速度也极快,几乎凭一己之力让训练可以深入到数十甚至上百层。
二是归一化开始发威。随着网络层数加深,每一层输入的分布都会剧烈偏移,迫使后续层不断适应新分布,大大拖慢训练速度,也使超参数设置变得极其敏感。
而归一化技术在每一层输入进入激活函数前,强行将其归一化到均值为0、方差为1的标准分布。这就像给每层安装了“自动稳压器”,确保训练平稳。
正是这些改进的结合,使得研究者第一次能够可靠、高效地训练出极深的神经网络。
换言之,深度网络的威力终于从理论照进现实。
而且更幸运的是,技术的突破还遇上了数据的爆发——包括李飞飞牵头创建的ImageNet和一些大型文本语料库等大规模高质量标注数据集,越来越多地被创建和公开。
在技术与数据的双重红利下,监督学习在当时表现亮眼(比如大名鼎鼎的AlexNet引爆“深度学习革命”)。
直到2015年,LeCun开始再次思考如何推动人工智能达到人类水平。他观察到,当时主流的强化学习方法在样本效率方面极其低下,“无法实现目标”。
因此,他重新将研究重心转向了世界模型和规划,即一个能够预测自身行动后果并能进行规划的系统。
他最初的设想很直接:要建立一个世界模型,那就让它像物理模拟器一样,预测下一帧画面的每一个像素。
这一想法与当时的主流观点不谋而合,但事实证明它错了。
我起初和所有人一样,犯了在像素级别预测视频的错误,这实际上是不可能的,因为预测是非确定性的。
因为现实世界往往充满随机性。比如预测一杯水打翻后每一颗水珠的确切轨迹和形状,是不可能的。未来有无限多种可能的像素级状态。
如果强行训练一个确定性模型来预测像素,它为了最小化误差,通常会学会输出一个所有可能未来的模糊平均。这就是为什么早期视频预测模型生成的画面总是模糊不清——它不是预测,而是“和稀泥”。
而为了解决不确定性,LeCun最初尝试了潜变量模型。这就像给模型一个“随机数骰子”(潜变量),允许它根据骰子的不同结果,生成不同的未来画面。
不过LeCun最终意识到,这本质上仍是在像素空间中工作,没有触及核心。
直到这时,主打“在抽象表示空间中进行预测”的JEPA架构终于应运而生。
其灵感源自LeCun在90年代研究的Siamese Networks,只不过一直面临一个巨大的难题——防止系统崩溃。
在训练过程中,模型可能将所有输入映射到单一的点或低维空间,导致嵌入空间中的样本不可区分,从而无法有效捕捉样本间的语义差异。
为了解决这个问题,LeCun依次尝试了对比学习、非对比学习的方法,最新进展就是LeJEPA技术。
LeJEPA核心提出了一种基于各向同性高斯嵌入的自监督学习方法,通过引入SIGReg正则化,有效解决了表示崩溃问题,并显著提升了模型的泛化能力。
LeCun认为,“LeJEPA+SIGReg”是训练模型学习抽象表示的“极有前途的技术组合”,并预计未来一两年内这个领域将会有更多突破。
基于上述论断,LeCun断定,那些声称一两年内就能实现AGI的人纯粹是痴心妄想。
因为现实世界远比token化的文本复杂,仅靠现在的LLM路线绝无可能直接实现AGI。
更何况对于AGI这个概念,LeCun本身就觉得毫无意义。
AGI(通用人工智能)指的是人类水平的智能,但事实上人类智能是高度专业化的,比如人类擅长处理现实世界的问题(导航、互动),但在棋类任务上表现糟糕。
甚至在很多任务上,动物其实比人类更擅长,而人类之所以自诩为“通用”,只是因为人类自认为能处理所有可以想象到的问题,但很多想象之外的问题,人类其实无法应对。
所以与其讨论人类水平的智能,不如讨论机器是否可以在人类擅长的领域达到或超越人类。
毫无疑问,答案是肯定的。已有机器在部分领域超越人类,但要说覆盖全部领域,则需要一个渐进的过程,而非一蹴而就。
可以预见,在未来几年,世界模型、规划能力方面或许能取得概念性突破,这将为实现人类水平的AI铺平道路。
但这还远远不够,还需要很多基础概念的铺垫,需要新的理论创新才能突破当前人类智能的瓶颈。
总的来说,人类智能离我们还很遥远。
而且并非大众所普遍认知的那样:“人类智能难以实现,那么低一档的狗级智能或许更容易实现”。
LeCun认为恰恰相反,实现人类智能的过程中,最难的反而是达到狗的智能水平。
能够达到狗级智能,说明在研究人类智能上已经具备了大量的基础理论,再从狗级智能到人类智能就容易得多。
因为灵长类动物和人类的差异,除了大脑尺寸的增长,关键在语言。语言其实是由大脑中很小的一块区域(Wernicke区和Broca区)负责,而这些区域在不到100万年(甚至200万年)前才进化出,复杂性并没有想象中那么高。
现在的LLM就可以很好地扮演这一区域的角色,将语言编码为抽象表征,并将思想解码为文本,而世界模型则相当于大脑的前额叶皮层,负责规划和决策。
所以LeCun的观点是,单靠LLM或者单靠世界模型都无法实现真正的人类智能,这需要很多相关研究的支撑,也需要很长时间才能完成。
也正因为如此,老爷子LeCun说他还不能退休。
事实上,今年LeCun已经65岁。
花甲之年、荣誉等身,LeCun的妻子也希望他退休回归家庭,但LeCun如今仍要大龄创业,据他所说,原因只有两个字——“使命”。
大道至简,LeCun毕生所求,无非是提升人类的智能。
他说,智能是世界上最稀缺的资源,人类和地球的发展总是受到智能总量的限制,这也是为什么人类会前仆后继地投入大量资源进行教育、发展机器。
所以回顾LeCun整个职业生涯的全部研究项目,都紧紧围绕着“让人类更聪明”这一核心目标:
作为教授,LeCun教书育人;作为机器智能的研究者,LeCun希望通过机器辅助人类提升智能;通过社交媒体发声,公开传播AI和科学知识,让更多人了解相关领域……
LeCun表示:
为了这一目标,我愿意继续贡献心力。
不过他也坦然,这么多年的职业生涯里,他也有遗憾。
很多想要做的想法,都没有足够的时间去做,结果同行们比他抢先一步发表,典型的比如反向传播算法。
他曾发表过一篇关于训练多层网络的目标传播算法论文,那时他就衍生想到了反向传播的核心思路,但受时间和精力限制没能做成,后来David Rumelhart和Hinton发表了相关论文,并引用了LeCun的论文。
类似的事情还有很多,但LeCun并不后悔。
在他的视角里,一个好想法的涌现往往是复杂的,很少有人能在完全孤立的情况下提出全新的想法。
这在科学界里再正常不过,所以不能只把功劳归结于第一个产生想法的人,那些将想法落地的人同样需要巨大的努力。
或许正因如此,他才始终坚持开源的技术路径——在他看来,科学的进步从来都不是少数天才的灵光乍现,而是无数人思想在开放交流中的不断叠加延伸。
因此再回头看LeCun的离职,其实并不突兀。
当Meta已经不再是那个鼓励长期开放研究的“科学乌托邦”,LeCun的离开,几乎成为一种必然。
参考链接:https://www.youtube.com/watch?v=7u-DXVADyhc&t=1s
本文由主机测评网于2026-02-12发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260224893.html