当前,大型语言模型的通用能力与泛化表现正以前所未有的速度提升。
尽管部分新近发布的模型——例如口碑两极分化的GPT-5.2——在专项任务与智能维度上已取得卓越成就,然而距离公众想象中的通用人工智能(AGI)仍有巨大鸿沟。
这恰恰反映出业界对AGI仍抱有高涨的热忱与信念,或许下一款里程碑式的模型就将揭开AGI的序幕。
然而,卡耐基梅隆大学教授、AI2研究科学家Tim Dettmers近期发布的一篇长文博客《Why AGI Will Not Happen》却给这一热潮浇下冷水。他认为,受物理法则与成本约束,人类既无法实现AGI,也无法达成任何有意义的超级智能。
这篇观点犀利的文章迅速引发了学界的广泛争议。
该文从硬件演进、规模法则、观念空间等多个维度展开论述,核心论点直指当前AI发展范式的根本性误解。
博客原文:https://timdettmers.com/2025/12/10/why-agi-will-not-happen/
许多人在讨论AGI、超级智能、规模法则及硬件发展时,往往将其视作抽象的哲学命题。这种思考方式忽略了一个基本事实:计算是物理的。高效计算必须在信息局部化移动与全局信息汇聚之间取得平衡。尽管晶体管微缩持续提升局部计算速度,但信息移动所需的距离呈平方级增长,导致内存访问延迟很快占据主导。
需要记住两个关键点:第一,缓存越大,访问越慢;第二,随着晶体管尺寸逼近物理极限,计算成本急剧下降,而内存的相对成本却不断攀升。如今芯片中绝大部分面积已被内存占据,单纯堆叠算力只会产生大量“无效FLOPS”。
因此,Transformer这类AI架构并非凭空构想,而是对物理信息处理单元的近似优化。它通过MLP捕捉局部关联,借助注意力机制汇聚远程信息,已接近当前物理约束下的最优设计。动物大脑同样受限于生态位能量供给,人类智能水平本身就是一道由能耗划定的物理边界。数字计算正在逼近这一边界。
物理现实与观念空间遵循相似的规律:在线性尺度上获得收益,往往需要投入指数级增长的资源。观念空间中,相互依赖的想法边际收益递减,即便是看似迥异的创新(如状态空间模型与Transformer),只要解决同一核心问题,其改进幅度终究有限。物理学的发展轨迹便是明证——从个体主导到巨型对撞机,实验成本呈指数攀升,而标准模型的突破却愈发艰难。
许多人习惯性地认为硬件会持续进步,但Dettmers指出,GPU在“性能/成本”指标上的峰值约在2018年达到,后续的一位数精度、张量核心、HBM等特性均为一次性红利。如今无论是物理层面还是架构层面,均不存在“纯收益”式的改进空间,任何优化都转化为计算效率与内存占用的权衡。尽管机架级(如KV缓存搬运)仍有工程优化余地,但这些红利也将在2026—2027年消耗殆尽。
Dettmers强调,他并不否认缩放定律的有效性,但过去“线性投入换线性回报”的前提是GPU算力指数增长这一对冲因素。如今,该对冲已消失,规模化已转变为指数级成本换线性改进,物理极限正快速逼近。2025年的规模化收益已显疲态,未来两年是关键窗口期。
与此同时,中小型玩家(如MoonshotAI、Z.ai)凭借算法创新已能触及前沿性能。一旦开源推理栈(超越vLLM/SGLang)成熟,前沿实验室的基础设施优势可能一夜蒸发。研究创新、开源权重模型、硬件平台迁移三股力量正共同削弱现有AI基础设施的护城河。
美国奉行“赢家通吃”逻辑,坚信率先打造超级智能即可垄断市场;中国则更注重实用性与经济整合,追求“足够好”的生产力提升工具。Dettmers明确表示,美国路线在能力增长放缓的背景下显得短视,而中国思路更具长期韧性与务实价值。
真正的AGI必须包含物理任务执行能力,但机器人学习同样遵循缩放定律,物理世界数据获取成本极高,经济上难以闭环。超级智能的“自我改进爆炸”假设则错把智能当作抽象存在,无视任何系统改进都需要指数级资源支撑。因此,超级智能只会是渐进式的能力填补,而非失控飞跃。
加州大学圣地亚哥分校助理教授Dan Fu迅速撰文反驳,认为Dettmers低估了当前系统的效率提升空间,并指出多条通往更强AI的现实路径。
博客链接:https://danfu.org/notes/agi/
Fu指出,顶级模型的训练MFU(平均FLOP利用率)仅20%左右,远低于2022年BLOOM已达的50%。MoE架构虽好,但其算术强度低、通信开销大,导致硬件利用率不佳。新一代Blackwell芯片(FP8吞吐量2.2倍、支持FP4)及GB200机架级互联完全可缓解瓶颈,理论上可用FLOPs尚有9倍提升空间。
推理阶段效率更低,自回归架构导致MFU常低于5%,而带宽利用率(MBU)仍有优化余地。这并非物理极限,而是架构选择所致——我们完全可以设计硬件感知的高效架构(如扩散式语言模型、推理感知注意力),并调动全球闲置终端算力。
当前多数模型基于上一代硬件训练,而大规模集群(4万至10万卡)与新特性(FP4、NVL72全域通信)尚未充分释放。GPT-5.2是首批使用GB200训练的模型之一,硬件红利才刚刚进入兑现期。此外,针对B200指数运算单元的瓶颈,B300已通过倍增超越函数单元予以缓解,低垂果实依然丰硕。
Fu列出三条清晰路线:1)训练高效架构协同设计(如硬件感知注意力、状态空间模型);2)高质量FP4训练及推理高效模型;3)新硬件平台与分布式算力整合。这些方向均有初步成果,绝非空中楼阁。
若将AGI定义为“在多数任务上超越人类并产生巨大经济影响的通用工具体系”,而非无所不能的魔法棒,则当前模型已跨越关键阈值。以编程为例,Claude Code、Cursor Composer等工具已使大部分代码由模型生成;模型在GPU内核编写、性能分析工具链构建等复杂工程任务上表现出色。即便算法与硬件再无突破,仅凭现有后训练范式、样本效率优化与垂直领域深耕,AI便可在未来几年内解决或加速95%的特定领域问题。
Dettmers的警示具有积极意义:他清晰勾勒出横亘在前的物理障碍,而Fu的回应则证明了这些障碍并非不可逾越。硬件利用率、模型架构、后训练方法、新硬件平台……每一条路径都指向至少一个数量级的有效算力提升。真正的挑战不在于“是否可能”,而在于“如何协同突破”。
当前正是AI与系统研究的最佳时代,争议与共识共同铺就了通往更强智能的阶梯。
本文由主机测评网于2026-02-12发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260224907.html