当前位置:首页 > 科技资讯 > 正文

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向

高分的科学模型不一定真正理解物理,有些可能只是在机械记忆!MIT最新研究指出:越是聪明的模型,对物质世界的认知就越趋向一致。既然通往真理的路径已经浮现,我们还有必要陷入昂贵的算力比拼吗?

当前的AI for Science领域,宛如一场多国语言交织的峰会——各方用不同的数据语言描述同一个物理现象。

有的研究者让AI学习SMILES字符串,有的则输入原子的三维坐标,大家在不同赛道上比拼预测精度。

但核心问题始终存在:这些AI是真的在洞察物理本质,还是仅仅在总结表面规律?

在麻省理工学院的一项新研究中,科学家们将59个不同来源的模型放在一起,观察它们在处理物质信息时,内部隐藏层的表征是否存在共性。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第1张

论文链接:https://arxiv.org/abs/2512.03750

结果令人震惊:尽管这些模型观察数据的方式千差万别,但只要它们的能力足够强大,它们对物质的理解就会高度趋同。

更不可思议的是,一个仅读取文本的代码模型,竟然能和一个计算受力场的物理模型在“认知”层面实现惊人的对齐。

它们沿着不同的路径,最终攀登到同一座真理之巅,共同勾勒出物理现实的终极图景。

真理的汇聚:为何顶级模型越长越像?

为了验证模型是否真的逼近真理,研究者引入了一个关键指标:表征对齐度。

简单来说,就是比较两个模型在处理同一分子时,内部推理路径的相似程度。

结果发现,性能越强的模型,其思维方式就越接近。

实验中,随着模型预测分子能量的精度不断提高,它们在表征空间中自发地向同一方向靠拢。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第2张

性能与认知的同步:能量预测越精准,模型与顶尖基座的思维方式就越趋同。每个点代表一个模型;点大小对应模型规模。

尽管这些AI的架构五花八门,但它们在处理同一批分子数据时,其特征空间的复杂度竟然收敛到了一个非常狭窄的范围。

无论模型外壳多么复杂,它们最终抓取的都是最核心、最精简的物理信息。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第3张

化繁为简:尽管AI架构各异,但它们提取的物质特征在数学复杂度上却殊途同归。

这一特征在Orb V3等模型上尤为显著。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第4张

跨架构的表征对齐:矩阵中的深色区域显示了Orb V3等高性能模型与其他严谨物理模型(如MACE、EqV2)之间强烈的共鸣。

通过更自由的训练,它们可以更精准地对齐物理规律。

这也说明,当给AI提供足够多的数据、采用恰当的训练方式时,它甚至能跨越人类现有的理论框架,自己摸索出物质运行的本质规律。

这种收敛现象表明,AI并没有凭空想象,它们正在合力挖掘物质世界那个唯一、真实且客观的底层逻辑。

不止分子,连“猫”也一样!

你以为这种“英雄所见略同”只发生在科学AI里?大错特错!

有研究者把纯文本的语言模型(如GPT系列)和纯图像的视觉模型(如CLIP或DALL·E背后的模型)拿来比较,结果发现,它们对“猫”的理解,竟然也越来越像!

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第5张

在语言模型里,“猫”的向量表示会紧紧靠近“毛茸茸”“喵喵叫”“宠物”“抓老鼠”这些词。

在视觉模型里,“猫”的向量则靠近胡须、圆眼睛、软毛、优雅的尾巴等视觉特征。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第6张

本来两个模型一个只看文字、一个只看图片,压根没有交集。

但模型规模越大、性能越强,这两个完全不同模态的“猫”表示,就在线性空间里越靠越近,仿佛在共享同一个“猫的本质”!

这意味着AI不管从文字、图像、分子结构还是三维坐标切入,只要足够强大,就会在内部悄悄趋向同一个对现实的“内在图景”。

高分不等于真理,警惕“迷路”的AI

高性能模型都在山顶汇合,那剩下的模型都在干什么?

研究者发现,性能不佳的模型有两种“死法”:一种是各想各的,在错误的道路上渐行渐远;另一种则是集体变笨,虽然想的一样,但都漏掉了关键信息。

有些模型虽然跑分不错,但思维方式却非常孤僻。

比如MACE-OFF,它在处理某些分子任务时表现很强,但它的表征对齐度却极低,完全不能融入主流高性能模型。

它可能只是在特定领域里找到了某种规律,一旦跨出这个舒适区,它的经验就很难转移到其他科学任务上。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第7张

图中白色的点代表模型从未见过的分子结构。可以看到,模型在处理这些结构时误差(MAE)激增,且表征完全偏离了正常的物理分布。

而当AI遇到训练数据里从未出现过的物质时,它们往往会放弃思考,一起摆烂,或者集体走进算法设计者留下的“舒适区”,丢掉了物质最核心的化学特征。

由此可见,训练数据不仅仅是模型的养料,更是决定模型能否触碰真理的基础。

如果数据不够多样,哪怕模型的架构再精妙,也终究只是在原地踏步,无法进化成真正的通用基座模型。

真理唯一,我们离算力自由还有多远

既然实验已经证明,不同的AI都在向同一种物理理解靠拢,那我们还有必要堆昂贵的显卡,从头训练一个超级大模型吗?

很显然,没有必要。而且AI已经替我们找到了一条捷径——“模型蒸馏”。

研究发现,规模较小的模型,通过模仿那些高性能基座模型的“思维方式”,也能表现出惊人的潜力。

我们不再需要盲目追求参数量的堆砌,而是利用“真理收敛”的特性,把大模型的知识复刻到更轻量、更高效的小模型身上。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第8张

图中圆点的大小代表模型参数量。可以看到,即使是较小的模型,只要其表征能与最佳性能模型对齐,同样能在分子能量预测任务中获得极高的准确度。

这对未来模型的开发具有深远的意义。

Orb V3向我们展示了“苦涩的教训”的另一种解法:通过大规模训练和聪明的正则化手段,简单的架构同样能学到那些昂贵的、强加物理限制的模型才有的理解力。

MIT研究揭示:顶尖AI模型对物质的理解殊途同归,算力竞赛或迎来新方向 AI for Science 模型对齐 算力竞赛 物理理解 第9张

多元架构的对比(部分):论文评估了包括Orb、MACE、DeepSeek在内的近60种模型,为科学家的选择提供了定量依据。

在未来,评估一个科学AI的标准将变得更加多元。我们不仅看它当下的“考分”,更要看它是否踏入了“真理的收敛圈”。

一旦我们掌握了这种对齐的逻辑,科学发现将不仅是巨头们的算力竞赛,更多轻量级、针对特定场景的AI将如雨后春笋般涌现,真正实现“算力自由”下的创新爆发。

MIT的研究给狂热的AI竞赛浇了一盆冷水,但也指了一条明路。

科学AI的进阶之路,不再是更复杂的架构,也不是更漂亮的物理公式,而是看谁能更稳地进入那个“收敛圈”。

我们不需要沉默算力竞赛,因为真理的路径已经清晰——所有聪明的模型都在往一处跑,那么通过“表征对齐”来实现模型的轻量化和知识迁移,就成了最务实的工程方案。

未来的科学,将属于那些懂得利用收敛性来降低成本的人。

参考资料:

https://the-decoder.com/scientific-ai-models-trained-on-different-data-are-learning-the-same-internal-picture-of-matter-study-finds/

https://arxiv.org/abs/2512.03750

https://www.quantamagazine.org/distinct-ai-models-seem-to-converge-on-how-they-encode-reality-20260107/