当前位置:首页 > 科技资讯 > 正文

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测

【导读】传统观点认为语言依赖语法、规则和结构解析,但最新《自然通讯》研究打破了这一幻象。GPT的层级结构竟与人大脑中的「时间印记」高度吻合。当浅层、中层、深层神经网络在脑中依次激活时,我们首次窥见:语言理解或许从来不是静态解析,而是连续的预测过程。

数十年来,科学界坚信人类大脑依靠一套严谨的语法规则和结构分析来理解语言,这被视为认知科学的基石。然而,一项发表于《自然通讯》的颠覆性研究,彻底动摇了这一长期共识。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第1张

论文地址:https://www.nature.com/articles/s41467-025-65518-0

研究团队让参与者聆听30分钟的故事叙事,同时利用毫秒级脑电技术,精确捕捉大脑对每个词语的实时反应。

随后,他们将相同文本输入大语言模型如GPT-2和Llama-2,提取模型每一层对文本的内部语义表示。

令人震撼的结果浮现:GPT那看似抽象的层级结构,竟在人类大脑活动中找到了精确的时间对应关系。

以往我们总假设GPT在模仿人类,但实验却暗示了一个更深刻的可能:人类大脑的先天结构,或许本就与GPT的架构相似。

GPT的层级结构在大脑中有时间对应

理解这项研究的关键,在于将GPT的48层结构逐层对齐到人脑处理语言的时间序列上。

团队招募了9名因癫痫接受术前监测的患者,他们大脑皮层上已植入高密度ECoG电极,能以毫秒级精度记录神经活动。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第2张

ECoG植入和定位示意图

受试者聆听一段30分钟播客时,研究者同步采集了每个词触发的高伽马脑电信号,覆盖语言通路的关键区域:从听觉皮层(mSTG、aSTG)到语言整合区(IFG),再到高级语义区(TP)。

同时,同一文本被输入GPT-2 XL和Llama-2模型。每当模型处理一个词时,研究者便暂停并抽取该词在模型每一层的内部表示。

接着,他们通过CA降维简化每一层的表示,并用线性模型预测人脑在对应毫秒的电活动。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第3张

研究方法示意:GPT-2的每一层生成一个语义表示(左)。这些表示输入线性模型,预测人脑听到该词时的脑电活动(右)。若某一层能在特定时间点预测脑电,则表明该层与大脑处理阶段对应。

如果GPT的层级与人脑无关,对齐结果将杂乱无章;但实验显示,二者在时间轴上呈现出清晰的秩序。

模型层级在大脑中形成「时间阶梯」

研究初始假设很简单:若大语言模型的层级结构与大脑处理阶段对应,这种对应应在时间轴上依次呈现。

研究者将GPT每一层的语义表示输入线性模型,预测大脑高伽马活动的峰值时间。

结果,「时间阶梯图」清晰揭示:越靠近高阶语义的脑区,越类似GPT的深度结构。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第4张

GPT的48层在大脑语言通路中呈现清晰的「时间—深度」对应。浅层(暖色)在更早时间点达到峰值,深层(冷色)在更晚时间出现。TP、aSTG、IFG等高阶区域表现出强线性关系(r=.93 / .92 / .85),而mSTG(近听觉皮层)几乎无层级结构(r≈0)。

初级听觉皮层(mSTG)仅处理声音信号,语义和结构尚未展开;但进入aSTG、IFG、TP等区域时,曲线呈现从浅到深的整齐分布。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第5张 GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第6张

在关键语言区IFG内部,GPT的层级结构同样呈现强烈的时间对应。左:浅层至深层的相关度分布(暖色→冷色)。右:浅层峰值更早、深层更晚,形成规律性时间推移。IFG的整体拟合度达r=.85(p < .001)。

这一发现颠覆了传统认知:大脑理解语言并非逐步解析语法和词汇,而是像GPT一样,进行层层递进的语义推断和概率预测。这种复杂的推断节奏,竟与大语言模型的内部深度路径完美重合。

传统语言学模型在脑电前显尴尬

如果GPT的层级能对应大脑,那么传统语言学模型——如音位、词素、句法、语义框架——是否能呈现类似的时间结构?

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第7张

传统语言学语法树

研究团队测试了这些符号语言学模型,它们基于数十年的教科书框架。若人类语言依赖这些规则,它们应比GPT更精准预测大脑反应。

结果却显示:符号模型虽能预测部分脑电活动,但远不及GPT的对应程度。在毫秒级时间轴上,这些模型的预测曲线缺乏明确的「浅到深」序列分布,没有层级或时间推进,仿佛缺失了连续动态的语言动力。

相比之下,GPT的嵌入式表示呈现「流动式」处理轨迹:意义随时间不断更新、压缩、整合,每一层都有其位置,像精密齿轮嵌入上下文。符号模型则像静止、离散的标签堆叠,无法在时间维度给出细致动态映射。

这得出颠覆性结论:人脑语言机制并非符号规则堆叠,而是连续、深度预测的加工过程。当我们用语法树解释语言时,大脑已完成几十层非线性变换,这正是Transformer模型的核心能力。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第8张

视觉对比:神经网络与人脑

简言之,符号模型描述「语言是什么」,而GPT更接近展示「大脑如何处理语言」。这标志语言学解释框架与神经科学实证的首次显著分歧,而站在大脑一侧的,竟是本以为仅「模仿人类」的GPT。

语言本质是预测能力,而非规则体系

当GPT的层级在人脑中找到时间对应,当符号模型在脑电前显得迟缓无序,这项研究指向了更底层的问题:语言究竟是什么?

过去几十年,我们用语法规、语义网络、树状结构描述语言,强调「结构、类别、层次」,却忽略了大脑中语言的即时生成方式:它如何在毫秒级连续变化?如何瞬间整合过去与未来?

实验结果描绘了截然不同的图景——大脑处理语言不像执行规则,而像沿一条不断压缩、预测、更新的轨道推进。浅层快速提取线索,中层整合语境,深层构建长意义链条。整个过程不是静止「语法树」,而是向前流动的计算。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第9张

这正是Transformer模型设计时试图捕捉的「流动结构」,通过多层、非线性、上下文依赖、随时间滚动更新等特性实现。讽刺的是,我们曾以为这是工程师的发明,现在看来,它更像是大脑进化中选择的高效计算路径。

语言的定义悄然变化——语言不再是规则体系,而是一种动态预测机制。我们理解一句话,并非先知语法再匹配意义,而是在每一毫秒里计算「下一刻可能发生什么」。GPT正是按此方式训练,这或许解释了为何大型语言模型看似理解我们:不是因为学会人类规则,而是意外匹配了大脑节奏。

GPT层级结构与大脑时间印记的惊人对应:语言理解本质是动态预测 GPT  大脑 语言处理 预测机制 第10张

当GPT内部层级在大脑中找到时间对应,我们看到的已非单一AI模型的「胜利」,而是结构趋同与底层计算规律的殊途同归。语言本质或许从非静态语法规则,而是连续动态预测。大脑靠此理解世界、整合信息;模型靠此生成语言、模拟智能。最终,两条路径在同一高效计算规律上相遇。我们熟悉的语言学和认知科学框架,或许需全面更新。理解GPT内部结构,正是在重新理解我们自己。

参考资料:

https://neurosciencenews.com/ai-language-brain-30025/

https://www.nature.com/articles/s41467-025-65518-0