当前位置:首页 > 科技资讯 > 正文

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方?

近日,人工智能领域迎来一场罕见的顶尖对决——图灵奖得主杨立昆(Yann LeCun)与诺贝尔化学奖得主德米斯·哈萨比斯(Demis Hassabis)就大模型的发展前景展开激烈辩论,观点针锋相对,引发业界广泛关注。

约一周前,被誉为“深度学习之父”的杨立昆在一档播客节目中直言不讳地“宣判”了大模型的未来,将当前最主流的人工智能技术路线斥为“毫无根据的空想”。

在这场对话中,他并未采用委婉的质疑或保留性意见,而是彻底予以否定:

所谓通往超级智能的路径,无非是继续扩大大语言模型的规模、用更多合成数据喂养模型、再雇佣成千上万的人在后期训练阶段手把手地“教导”系统,同时配合强化学习(RL)的一些微小调整;在我看来,这完全是荒谬之谈。此路根本不通。

作为深度学习领域的奠基人之一,LeCun的言论几乎推翻了当下整个AI产业共同押注的方向。

这无异于告诫所有人:停止努力,前方是死胡同。

作为当前大模型路线的核心领军者,DeepMind创始人哈萨比斯立即站出来反驳LeCun的观点。

他认为LeCun混淆了“通用智能”(General Intelligence)与“普适智能”(Universal Intelligence)的概念,忽略了一个关键事实——人类大脑本身就是一个高度通用的系统,尽管它在某些特定任务上并非最优。

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第1张

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第2张

埃隆·马斯克转发了该贴并公开站队哈萨比斯,认为他的观点完全正确。

哈萨比斯的反驳将问题从“大模型是否可行”引向了一个更为根本的议题:

我们究竟在探讨何种类型的智能?

LeCun在哈萨比斯的反驳帖子下留言,表示双方的分歧主要在于术语使用。

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第3张

他还借助数学和计算复杂性理论来支撑自己的立场:

人类大脑本质上是一个高度专门化的系统,因此不能用“通用”一词来指代“人类水平”的智能。

让这场辩论更具戏剧性的是,LeCun即将离开Meta,创办AMI Labs,押注一条完全不同于大模型的新路径。

而辩论的另一方哈萨比斯,他所领导的DeepMind正在大模型通往AGI的道路上加速前行。

因此,这不仅是观点之争,更是一场关乎未来十年AI技术路线的豪赌。

LeCun

大模型无法实现AGI

在LeCun看来,当前硅谷主流通往超级智能的路径,无论在理论还是实践上都站不住脚。

他认为这条路径本质上是在用“规模”掩盖“结构上的缺陷”。

通过将模型不断放大,用更多数据投喂,再依靠人工后期训练逐步纠偏。

短期内这确实会让模型变得更强大,但这并不意味着我们在接近真正的通用智能。

此外,他反对用“通用”这个词来描述“人类智能”。

他认为人类本身其实是高度甚至极端专门化的。

一个训练充分、拥有无限纸笔的人类大脑,在理论上是“图灵完备”的。

但在现实中,我们几乎在所有计算问题(如下棋)上的效率都低得惊人。

一个几十欧元的棋类引擎,就能稳定击败世界顶级棋手。

这不是因为人类不聪明,而是因为在资源受限的条件下,我们的计算方式本身就高度次优。

LeCun还提出了一个极具“工程师”色彩的比喻。

在理论上,一个仅有两层的神经网络,可以将任何函数逼近到任意精度。

但在现实中,真正有意义的函数往往需要多到难以接受的隐藏单元。

因此我们才需要采用多层网络,这正是深度学习存在的根本原因。

接着,他又举了另一个例证。

假设视觉系统有大约100万根神经纤维。

哪怕我们极端简化,将信号视为二进制,一个视觉任务也相当于:从100万比特映射到1比特的布尔函数。

这类函数的总数是多少?

2^(2^1000000)。

这是一个几乎无法书写、无法想象的数字。

而人类大脑呢?

假设有10¹¹个神经元、10¹⁴个突触,每个突触用32比特表示,整个连接组最多也只有3.2×10¹⁵比特。

这意味着,人类大脑整体能表示的布尔函数总数,上限不过是: 2^(3.2×10¹⁵)。

这与2^(2^1000000)相比,几乎可以忽略不计。

当然,LeCun的推断只是一个信息论意义上的上界估算,并非严格的神经可计算性证明。

但他由此得出的结论同样严峻。

他认为我们不仅谈不上“通用”,而且在可能函数空间里,是极端、荒谬地专门化的存在。

我们之所以感觉不到,是因为绝大多数函数对我们而言复杂到完全像随机噪声。

于是,我们将它们称为“熵”,然后选择忽略。

正因如此,LeCun非常欣赏爱因斯坦那句著名的话:“世界上最不可理解的事情,就是世界居然是可以被理解的”。

他认为宇宙中绝大多数的信息内容都是熵,是那些我们用自己贫弱的心智根本无法理解,所以只能选择忽略的东西。

Hassabis反击

你打错了靶心

哈萨比斯并未直接否定LeCun的数学推断,而是指出他打错了靶心——混淆了“通用智能”与“普适智能”的概念。

LeCun所否定的只是“普适智能”,即在所有任务上达到接近最优的性能。

而“通用智能”则是另一回事,它是指同一个系统能否在完全不同的任务之间迁移、学习、适应。

从这个角度看,图灵机是一个很好的理论假设。

哈萨比斯认为大脑是目前宇宙中所知的最精妙、最复杂的现象(至少到目前为止),而且它们本身就是高度通用的。

受无免费午餐定理(No Free Lunch Theorem)的限制,任何现实、有限的系统都会不可避免地围绕正在学习的目标分布产生一定程度的专门化。

但“通用性”的核心在于:

从理论上讲,一个通用系统的架构,只要给予足够的时间、内存(以及数据),就可以学习任何可计算的东西。

在人们常用的计算理论类比中,人类大脑常被视为近似图灵完备的系统,哈萨比斯认为人脑和基于Transformer的基础模型,同样都是近似图灵机的系统。

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第4张

哈萨比斯也回应了LeCun关于棋手的评论。

他认为人类能够发明出国际象棋本身就是一个奇迹,何况我们还能在此基础上达到像国际象棋棋手之一Magnus Carlsen那样的顶尖水平。

更不用说现代文明的其他一切:如从科学发现到制造747客机等。

哈萨比斯表示人脑或许并不是严格意义上的最优解(毕竟记忆有限、决策时间也有限),但考虑到人类大脑原本只是为狩猎采集而进化的,它所取得的上述成就堪称不可思议。

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第5张

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第6张

因此,哈萨比斯认为人脑本就是一个宇宙级的“通用AI”,具备无限学习潜能,而人类文明创造力,则是大脑高度通用性的最强证明。

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第7张

五年后

答案或将浮出水面

真正让这场争论变得引人注目的,是LeCun与哈萨比斯二人在AI界的巨大影响力,以及他们背后所代表的截然不同的技术路线。

图灵奖得主LeCun与诺奖得主Hassabis激辩AI未来:大模型路在何方? AI  AGI 大模型 深度学习 第8张

LeCun宣布即将离开Meta后,便马不停蹄地为“下一场战役”做准备。

与此同时,他也选择远离硅谷的一切。

在他看来,硅谷正被“LLM”洗脑的单一文化所主导,从Meta到OpenAI、谷歌、Anthropic,基本上所有人都在做同样的事情。

因此,在断定大模型此路不通后,LeCun决定创办自己的研究型初创公司AMI Labs,专注于构建“世界模型”。

目前AMI Labs正在以35亿美元估值融资5亿欧元。

这也意味着LeCun将自己后Meta的整个职业生涯都押注在了与硅谷主流AI路线截然不同的一个方向判断上:

大模型不是通往通用智能的正确路径。

与LeCun的选择和判断相对应的,是哈萨比斯带领的DeepMind实现了AlphaGo、AlphaFold、Gemini等一系列历史性突破。

他还因为AlphaFold在蛋白质结构预测领域的革命性贡献,与John Jumper、David Baker共同获得了2024年诺贝尔化学奖。

这些技术突破,在不同任务上采用了不同但可迁移的学习范式,正在一步步探索通往AGI的可能性。

前不久,哈萨比斯还断言“扩规模”是通往通用人工智能(AGI)的关键组件,甚至可能就是全部路径。

他认为要实现AGI,当下主流大模型必须将“扩规模”(更多数据、更多算力、更大的模型)这件事推到极致。

沿着这一路线,在完成一两次关键性突破后,哈萨比斯认为我们可能在5–10年后迎来“完整的AGI”。

当LeCun认为靠野蛮堆算力行不通,转而押注“世界模型”时,哈萨比斯仍然坚信Transformer和Scaling Law是通往AGI的必由之路。

五年后,我们可能会发现其中一方是对的,也许他们会在某个意想不到的地方汇合。

无论结果如何,争论的意义也许不在“普适智能”“通用智能”的名词之争,而是启发我们如何理解“智能”本身。

毕竟,在很大程度上,这还是一条充满未知的探索之路。

参考资料:

https://x.com/demishassabis/status/2003097405026193809?referrer=grok.com

https://x.com/ylecun/status/2003227257587007712?s=20

https://www.youtube.com/watch?v=7u-DXVADyhc&t=153s