
近期,伊利亚·苏茨克沃(Ilya Sutskever)为了推广其新创企业“安全超级智能公司(SSI)”,参与了一场访谈。尽管此次露面带有明显的宣传色彩,但这仍然是过去六个月中关于人工智能产业发展方向最为深刻的公开讨论之一。尽管他的核心观点已在媒体上广泛流传,但我们仍需要再次强调并展开深入探讨。
作为OpenAI的前首席科学家,苏茨克沃认为当前的人工智能热潮已经严重偏离了正确的发展轨迹。这并非微小的偏差,而是方向性的根本错误。
他提出了一个足以让所有忙于签署数十亿美元计算合同的企业高管们感到震惊的观点:那个依赖计算能力堆积、追求模型规模扩张的时代,已经走向终结。未来要想取得突破,整个行业必须重新拾起被长期忽视的东西——真正的研究。
“我们生活在一个公司比创意多得多的世界里,”苏茨克沃毫不客气地指出,“而且数量差距悬殊。”这番话出自他之口,分量格外沉重。毕竟,正是他参与设计的AlexNet、GPT-3等里程碑式的工作,在过去十年间为“规模至上”的理念提供了有力支持。如今,这位曾经的规模扩张信徒却宣告此路不通。
他将核心观点归纳如下:
通常,人们对某个理论观点的理解总是见仁见智、各有不同。但苏茨克沃的最新观点之所以值得特别重视,是因为谷歌在大模型领域的最新进展基本印证了他的上述判断:谷歌在各个技术方向上追平甚至超越了OpenAI,这一事实证明了理论正确不仅意味着所需算力可控,还意味着算力模式同样可控(例如从GPU到TPU的切换)。更进一步,这也表明谷歌在大模型理论研究上取得了三年来整个产业最重要的突破。可以预见,“软硬一体”(硬件设计与制造+算法演进与突破)的竞争模式将成为所有人工智能公司的必经之路。
这在很大程度上为2026年全年的AI产业竞争定下了基调、明确了主线。在我们深入探讨未来的基调与主线之前,不妨先对这篇访谈的核心内容进行一次梳理。
苏茨克沃的论证起点颇为独特,他从语言现象入手。“Scaling”这个词本身,逐渐演变成了整个行业的战略指南针。人们普遍认为,只要在计算能力和数据上持续投入,回报就是确定无疑的。预训练范式给出了一条清晰的路径:按照固定比例混合算力、数据和模型参数,性能就能稳定提升。
这种确定性吸引了巨额资本涌入。研究充满风险,而扩张仅仅是花钱——当你动用的是数十亿美元时,这种区别至关重要。
但任何配方都会过期。高质量的训练数据正迅速枯竭,互联网上的文本几乎被采集殆尽。合成数据虽然能提供一些帮助,但正如苏茨克沃所言,收益递减的拐点已经到来。所有大型实验室都面临同一个问题:当扩张曲线趋于平缓,下一步该怎么走?
他的回答并不乐观。现有路径“还能再走一段,但很快就会后继乏力。它会继续改进,但无法成为真正的智能。”我们渴望的、能够展现真正智能的系统,需要另一种方法。“而我们还没学会如何构建它们。”
这并非在抱怨“算力不足”。他是在质疑当前智能架构的根本合理性。
苏茨克沃理论的技术核心在于泛化能力。当前的模型在基准测试中表现优异,但一旦面对真实场景,就会以各种方式失败,暴露出底层的缺陷。
他描述了一个所有用过代码助手的人都熟悉的抓狂场景:你遇到一个程序漏洞,让模型修复,它带着近乎表演的诚恳道歉,然后给你引入一个完全不同的新漏洞。你指出这个新问题,最初的那个漏洞又原样返回。它似乎完全意识不到自己正陷在死循环中。可同样是这个系统,在编程竞赛的排行榜上却能碾压人类。这显然说不通。
他给出了两种解释。
第一,强化学习训练出的是一种狭隘的专注,模型为了特定的奖励信号被过度优化,却丧失了更广泛的能力。第二点更棘手:研究者们会不自觉地“为考核而训练”。团队设计的强化学习环境,无形中受到了他们将被如何评估的影响。等到基准测试与实际效用脱节时,往往为时已晚。
他用一个类比点明了关键:想象两个学编程的学生。一个花一万小时死磕竞赛编程,背熟了所有算法和证明技巧,成了这个特定领域的顶尖高手。另一个花一百小时学到还不错,就转而学别的去了。谁未来的发展更好?几乎总是那个通才。
现在的模型就像那个偏执的专才。在狭窄领域投入巨量强化学习,产出的都是基准测试冠军,却在相邻任务上步履蹒跚。
人类智能并非如此。我们用少得多的数据快速学习、广泛适应,在不同情境下保持一致性。
“这些模型的泛化能力,不知怎的就是比人差一大截,”苏茨克沃说,“这太明显了,感觉是个非常根本的问题。”
他相信,理解可靠的泛化机制是那个核心的未解之谜。其他问题,包括AI对齐,都由此衍生。价值学习之所以脆弱,是因为泛化本身脆弱;目标优化之所以失败,是因为泛化失败。修复底层机制,很多表面问题自会消解。
对苏茨克沃“研究优先”思路最直接的质疑是:SSI(Safe Superintelligence Inc.,苏茨克沃创建的公司)筹集了30亿美元,但据说OpenAI一年光实验就要花50到60亿(这还不算推理成本)。小团队怎么竞争?
他的算法挑战了行业的默认假设。在他看来,前沿实验室的开支被各种需求分散了:推理基础设施吞噬巨额资本,产品工程、销售团队和功能开发又占用一大块研究预算,多模态研发再分走一杯羹。
“当你看看真正留给研究的还剩多少,差距就小得多了。”
历史也站在他这边。AlexNet用两块GPU训练而成,最初的Transformer模型用的也是2017年水平的8到64块GPU。真正的范式突破研究,从来不需要最大的算力规模,它需要的是洞察力。
SSI的结构就体现了这个理念:没有产品,没有推理负载,不被任何事干扰研究重心。这家公司只为验证一个关于泛化的技术理论而存在。理论对了,验证所需的算力是可控的;理论错了,再多算力也白搭。
这是一场纯粹的战略豪赌。苏茨克沃不是在说SSI会比谁花钱多,他是在赌,当范式转变时,思想比预算重要。
访谈中还埋着一个更激进的观点:人类本身也不是AGI(通用人工智能)。这话听着离谱,但细想之下有深意。
AGI这个概念,最初是为了区别于“窄AI”——那些下象棋、打游戏很强但无法举一反三的系统。AGI承诺的是反过来:一个什么都能同时干的系统。预训练强化了这个想法,因为更多的训练似乎均匀地提升了所有任务的能力,通用性好像真能通过规模实现。
但人类智能不这么工作。我们先掌握一些基础能力,然后通过经验学习具体技能。你妹妹可能花十小时就学会了开车,而一个医学生要花近十年才能成为合格的诊断医生。这些技能复杂度天差地别,却都来自同一套底层学习机器。知识是在与世界的持续互动中积累的,不是一次性前置灌输的。
这个新理解直接影响部署策略。如果超级智能是“无所不知的系统”,那你得在发布前把它完全造好。如果它是“能快速学会任何事的系统”,部署就变成了持续教育的过程。你要发布的是一个“超级智能的15岁少年,充满渴望,虽然现在懂得不多,但是个极好的学生”。
苏茨克沃也给出了具体的预测:具备当前模型所缺乏的泛化能力的类人学习系统,将在5到20年内出现。这个时间范围体现的是“哪条路能走通”的不确定,而非“有没有解决方案”的怀疑。
他预言,随着AI能力越来越肉眼可见,行业行为会改变:激烈的对手会在安全上合作(OpenAI和Anthropic已经宣布联手),政府会更深地介入,当AI开始“让人感觉到它的强大”时,公司们会对安全“变得偏执得多”。
他个人倾向的对齐目标是:关心所有感知生命的AI,而不仅仅是人类。他的理由很务实:一个自己可能拥有感知能力的AI,去关心所有感知生命,会比只关心人类更自然。
他提到人类自己就有跨物种的共情——尽管进化主要筛选的是群体内合作。我们会为关于狗的电影流泪,踩到蚂蚁时至少偶尔会愧疚。苏茨克沃推测,这是因为大脑使用同一套神经机制来理解他人和理解自己,效率至上,共情成了副产品。
这理论站得住脚吗?很难说。神经科学本身争议不断,从生物共情到机器对齐的跳跃,包含着太多可能在未来被证伪的假设。但苏茨克沃在这些问题上挣扎思考的时间,比这个领域里几乎所有人都长,他抵达的结论,至今鲜有人跟随。
访谈尾声,帕特尔问了一个可能决定AI未来走向的问题:什么是研究品味?苏茨克沃合作完成的开创性论文,在深度学习领域可能无人能及,他如何嗅到那个值得追寻的想法?
他的回答透着一种美学追求。有希望的方向通常优美、简洁,并且从生物智能中获得了正确的灵感。人工神经元重要,是因为大脑里有无数神经元,而且它们感觉是根基;从经验中学习重要,是因为大脑显然就是这么做的。一个方法如果显得“丑陋”,那通常预示着问题。
但光靠美感撑不过一次次失败。实验总会不断推翻看似完美的想法,漏洞总藏在代码里。怎么知道是该继续调试,还是该放弃方向?
“是靠那种自上而下的信念,”苏茨克沃解释,“你可以认定,事情必须是这个样子的。类似的东西一定得行,所以我们必须坚持下去。”
这是一种研究者的信仰,是任何规模的算力都无法替代的。是对“某些路径必然有效”的强烈信念,强到足以支撑你穿越所有反面证据,直到找到那个漏洞,或打磨好那个理论。规模扩张曾经为这种信仰提供了替代品——当任何方法只要放大规模就能改进时,你无需对特定方向有如此强烈的信念。
如果苏茨克沃关于规模扩张已达极限的判断是对的,那么这个替代品就消失了。剩下的,将是2020年以前我们所熟知的研究本身:充满不确定性,由想法驱动,并且依赖那种花钱买不来的品味。
本文由主机测评网于2026-02-23发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260226838.html