当前位置:首页 > 科技资讯 > 正文

Dwarkesh深度剖析AI进展:AGI时间线、强化学习与持续学习的未来

提起Dwarkesh Patel,或许很多人并不熟悉。但如果你关注AI领域,最近一定见过Ilya Sutskever和Andrej Karpathy参加的播客访谈,他们做客的正是Dwarkesh的节目。

这两位AI界的重量级人物鲜少接受访谈,能够同时邀请到他们,足以证明Dwarkesh在美国人工智能圈内的分量。

本文基于Dwarkesh最新一期播客的内容,整理了他对AI发展现状与未来趋势的一系列思考。

在此之前,他已经通过个人网站发布过相关观点,因此我在文末精选了几条来自读者社区的反馈,供参考。

毕竟关于AI进步的速度以及AGI何时到来,都是高度主观的判断,除了作者本人的分析,不同视角的评论同样富有启发性。

Dwarkesh深度剖析AI进展:AGI时间线、强化学习与持续学习的未来 AGI 强化学习 持续学习 AI经济价值 第1张

Dwarkesh 的一些核心判断:

1.强化学习驱动的“中训练”正成为大模型能力提升的关键路径。当前,头部AI公司正大力投入所谓的“中训练”阶段,试图将各种特定技能预先封装进模型中,比如操作浏览器或使用Excel搭建财务模型。

2.预置技能的模式与人类学习的本质相悖,人类劳动力的价值恰恰源于其灵活的低成本学习能力。人类能够根据情境快速习得新技能,每天处理大量需要判断力、上下文感知和工作经验的任务。如果模型必须预先内置所有技能,那么连最基础的工作都难以实现完全自动化,这表明AGI的学习机制远未成熟。

3.所谓AI经济渗透缓慢,实际上是能力不足的遮羞布。企业招聘人类员工充满不确定性,需要评估能力和文化契合度。而AI员工一旦被验证有效,就可以零成本无限复制,企业理应有强烈动力采用。但现实是AI尚未大规模替代知识工作者,这只能说明当前模型的能力距离真正有用还差得很远。

4.对AI怀疑论者的批评进行回应。过去,批评者常指出AI在通用理解、少样本学习和推理上的缺陷。随着技术进步,这些障碍被一一克服,但怀疑论者又会设立新的门槛,强调AI仍无法胜任某些工作。Dwarkesh认为这种标准迁移是合理的,因为我们对智能和劳动复杂性的认识在不断加深,AGI的定义也随之演变。

5.预训练的扩展律清晰且强大,但将其简单迁移到强化学习领域可能过于乐观。预训练阶段,算力增长与损失下降之间存在稳定的幂律关系。然而,研究者试图将这种经验套用到基于可验证奖励的强化学习(RLVR)上时,却缺乏可靠趋势。有分析基于o系列模型的数据推算,要实现类似GPT的跨越式进步,RLVR所需的总算力可能需要增加一百万倍。

6.与人类能力分布的比较,会导致我们先高估AI、后又低估其潜力。在知识工作中,顶尖人才创造的价值远高于普通员工。若将AI的能力与“中等水平人类”对标,很容易高估其当前的经济贡献。但一旦AI真正达到顶尖专家水平,由于可以无限复制,其带来的价值将呈指数级爆发。

7.持续学习将是AGI之后能力进化的核心引擎。Dwarkesh预测,明年我们可能会看到前沿实验室推出持续学习的初步功能,但要实现人类水平的持续学习能力,可能还需5到10年的迭代。这一能力的突破不会是突变式的,因此不太可能让某个模型瞬间获得垄断性优势。

以下为原文:

我们究竟在扩展什么?

一个令人困惑的现象是:有人一边断言AGI近在咫尺,一边又对当前在大语言模型上大规模应用强化学习寄予厚望。如果模型真的接近人类的学习能力,那么这种依赖“可验证结果”的训练方式从根本上就是多余的。

目前,前沿实验室正通过“中训练”阶段将海量具体技能预先植入模型,甚至催生了专门构建强化学习环境的产业链——教模型操作浏览器、使用Excel搭建财务模型等。

这形成了一个悖论:如果模型能迅速在工作中自主学习,那么预先注入技能就毫无必要;如果做不到,则说明AGI仍遥遥无期。人类无需为未来可能用到的每个软件提前接受特训,这种差异揭示了当前AI与人类学习的本质鸿沟。

Beren Millidge在其博客中提出了一个发人深省的视角:

当我们看到前沿模型在基准测试上不断突破时,不应只归功于算力增长或算法创新,还应看到背后数十亿美元的投入——聘请博士、医生等专家针对特定能力编写问题、示例和推理过程。这仿佛是专家系统时代的一次重演,只不过这次是将专家的思维过程通过大量标注样本“蒸馏”进模型。这让我对AI时间线更偏悲观,因为如此巨大的努力才换来有限的能力提升,恰恰证明这些系统仍缺乏真正AGI所需的核心学习机制。

人类劳动力的核心价值:训练成本极低且灵活

一次与AI研究员和生物学家的聚餐中,生物学家提到她认为AI发展会很漫长。当被问及难点时,她说自己最近需要从组织切片中判断某个斑点是否为巨噬细胞,而AI研究员立即回应:图像分类是深度学习的经典问题,很容易训练。

这场对话凸显了分歧所在:人类工作者的价值恰恰在于我们不需要为每个微小的环节构建昂贵的训练闭环。为某个实验室的特定切片制备方式单独训练一个巨噬细胞识别模型,再为下一个实验室重复此过程,整体上极不经济。我们需要的是能像人类一样通过语义反馈或自我驱动经验进行泛化学习的AI。

每天,我们都要处理上百项需要判断力、情境感知和工作经验的微观任务,这些任务因人而异,甚至同一人前后两天的工作内容也不同。仅靠预先内置固定技能,连一份工作都无法完全自动化,更遑论所有工作。

实际上,人们可能低估了真正AGI的颠覆性——它将意味着数十亿个类人智能体在服务器上运行,能够即时共享和融合彼此的学习成果。当然,这种意义上的AGI或许仍需一二十年,但其潜力已足够疯狂。

所谓AI经济渗透缓慢,实为能力不足的托词

有人声称AI尚未广泛部署是因为技术扩散需要时间,这不过是自欺欺人。真相是现有模型根本不具备创造广泛经济价值所需的能力。

Steven Byrnes在相关论述中一针见血:如果新技术融入经济需要很长时间,那为何高技能移民能立刻找到工作?想通这一点,就会明白AGI同样可以快速渗透。

如果模型真能达到“服务器上的人类”水平,它们的扩散速度将超乎想象。它们比人类员工更容易入职:几分钟内就能读完所有公司文档,并吸收其他AI实例的全部技能。此外,招聘人类存在信息不对称的“柠檬市场”问题,而验证过的AI实例可以零风险无限复制。

柠檬市场指在信息不对称下,买方难以判断质量,导致优质商品被驱逐的现象。

因此,引入AI劳动力比招聘人类容易得多。企业一直有用人需求,如果AI能力达标,每年愿意花费数万亿美元购买token——毕竟知识工作者的总薪酬高达数十万亿。而当前AI公司收入仅为其千分之一,只能说明模型能力还差得太远。

调整AGI标准是认识深化的必然

AI乐观派常批评怀疑派不断移动目标,这种批评有道理,因为过去十年AI进步显著。但某种程度上,标准调整是合理的认知深化。若在2020年看到Gemini 3,我会坚信它能自动化一半知识工作。

我们逐一攻克了通用理解、少样本学习、推理等曾被视作AGI瓶颈的能力,却仍未实现AGI。如果将AGI定义为自动化95%的知识岗位,理性的结论是:智能和劳动比我们想象的复杂。尽管模型在某些维度已超越我最初的AGI定义,但AI公司未赚到数万亿美元的事实,说明之前的定义过于狭隘。

未来这种情况会重复:到2030年,持续学习或有突破,模型年收入达数千亿,但仍无法自动化全部知识工作。那时我可能会说:进步巨大,但离AGI还差X、Y、Z。模型在“看起来很厉害”上的进步符合短时间线预期,但在“真正有用”上的进展却支持长时间线观点。

预训练的扩展律未必适用于强化学习

预训练展现出清晰、普适的扩展律:算力每提升一个数量级,损失函数便稳定下降(尽管是幂律关系,其强度远不如指数增长)。研究者试图将这种类似物理定律的可预测性迁移到基于可验证奖励的强化学习(RLVR)上,以此支撑乐观预期。

然而,RLVR并不存在任何公开的平滑趋势。当少数研究者尝试从零散数据中拼凑规律时,得到的结论往往悲观。例如Toby Ord通过整合o系列模型的基准数据发现,要实现类似GPT的质变,RLVR所需的总算力可能需要增加一百万倍。

与人类能力分布对标:先高估后低估

人类个体创造的价值差异巨大,尤其在符合O型环理论的知识工作中——任何一个关键环节的失误都可能导致整体价值归零,因此顶尖人才的价值被极度放大。一个平庸者对知识工作贡献甚微,而顶级AI研究员对科技巨头而言可能价值数十亿美元。

但AI模型在同一时间截面上能力高度均质化,缺乏人类的差异分布。由于知识工作的价值大头来自极少数顶尖人才,若将AI能力与“中位数人类”比较,就会高估其经济贡献。反之,一旦AI达到顶尖水平,由于可无限复制,其影响力将呈爆炸式增长。

大规模部署催生智能飞轮

关于奇点的讨论往往聚焦于软件或硬件突破,却忽略了AGI后能力提升的核心引擎——持续学习。人类能力的增强主要源于经验积累。

Beren Millidge提出一个有趣设想:未来,持续学习的智能体在执行具体任务中积累经验,然后将学习成果汇聚到“蜂群心智”中,通过批量蒸馏共享给所有实例。这些智能体可高度专门化,拥有“认知核心”并附加岗位相关技能。

持续学习的突破不会一蹴而就,而是渐进演化,类似上下文学习的发展路径。GPT-3展示了上下文学习的潜力,但至今仍在改进。持续学习也将经历类似阶段。

预计明年实验室会推出持续学习的初步功能,但要达到人类水平,仍需5-10年迭代。因此,首个突破的模型不会立即获得垄断优势。

从部署中学习的收益可能存在边际递减:前一千个咨询智能体学到最多,后续增量有限。此外,竞争仍将激烈——过去那些预期中的飞轮效应并未让任何实验室保持长期领先,头部三家频繁轮换,后来者紧追不舍,似乎有一种力量在消解垄断优势。

读者精选评论

Will Michaels:人类快速学习的原因之一是可能的误解空间有限且可预测。比如教微积分时,常见错误点可预先指出。而AI的错误既不可预测(同一模型在不同场景下表现迥异)又不直观(我们难以判断其何时可靠)。因此构建能识别所有错误并正确惩罚的学习环境异常困难。这与持续学习观点相关:若能设计出使AI失败模式可预测的架构,将是迈向持续学习的重要一步。

Argos:文章有见地,但部分论断略显武断。引用的证据支持力度不足,且存在其他解读。OpenAI使用华尔街数据训练模型,可能只是为了快速推出针对高付费客户的专业化模型,而非通用AGI路径。若真为通用目的,应从更广泛经济领域收集数据。AI未广泛部署确实说明未达AGI,但短时间线派本就不认为已实现AGI。若已有有用但不完美的智能体,扩散缓慢是合理现象。Claude Code很有用,但若作为自主员工则不合格。它的成功需大量工程投入,若没有这类工具,我们可能会低估前沿模型的编程价值。同理,模型在其他经济任务上的价值可能也受制于缺乏类似的“支撑体系”。

Daniel Kokotajlo:好文!几点想法:(1)在《AI 2027》设想中,持续学习是渐进解决的:2027年前只是增量改进(如更频繁更新模型),之后因研发自动化加速而实现更可靠、类人的持续学习。虽然时间可能更长,但原理成立:若当前算法进展需10-20年,而Claude Opus 7.7能自动化编码和实验分析,则剩余时间可压缩至1-3年。(2)现有范式确实需要更多RLVR数据,但足够强大后,上下文学习可能演变为持续学习形式。通过多样化RL环境,可训练出能在新环境中自主摸索的通用智能体。也可考虑智能体集体:未来集体可能自主管理数据收集、问题识别、环境生成等流程,形成集体持续学习。例如集体发现技能XYZ重要,即可调动数千工程师的算力搭建环境训练模型。集体可能仍需比人类多1000倍数据,但因拥有海量副本智能收集数据,总体学习速度仍远超人类(当然,像赢得战争这类无法复制的任务除外)。