谷歌DeepMind首席执行官Demis Hassabis近日断言,人工通用智能(AGI)将在2030年前成为现实。不过,在迈向这一里程碑之前,我们仍需一至两项如同Transformer或AlphaGo级别的革命性突破。恰逢NeurIPS 2025大会,谷歌重磅推出了被视为下一代Transformer最强继任者的Titans架构,为AGI的实现注入了新的动力。
2025年即将步入尾声,人工智能领域在明年将迎来哪些变革性发展?
最近,谷歌DeepMind CEO Hassabis在一次深度访谈中,对未来12个月的技术趋势做出了前瞻性预测,其中五大核心方向尤为值得关注。
以下是访谈中提炼的五大关键趋势:
Hassabis强调,我们应尽最大努力扩展现有AI系统的规模,即使它们最终只是AGI的组成模块,也至关重要。他甚至认为,当前这些系统本身可能就是通向终极AGI的关键拼图。
不过,他也坦诚地指出,要实现真正的AGI,至少还需要一两个像Transformer或AlphaGo这样的颠覆性突破。回顾八年前,谷歌提出的Transformer架构彻底改变了AI研究的方向,如今,又一个潜力巨大的新架构——Titans,在NeurIPS 2025上正式亮相,引发了学术界和工业界的广泛关注。
Titans架构巧妙地融合了循环神经网络(RNN)的快速响应能力与Transformer的强大性能,集两者之长。即使在处理高达200万token的超长上下文时,Titans在召回率和准确率上均表现优异,相关论文一经发布便在全球AI社区掀起巨大反响。
正如Hassabis所言,一个具有颠覆性的AGI时代正加速向我们走来。
今年早些时候,Hassabis就曾预测,具备或超越人类能力的AGI可能在2030年前实现。在周四的公开对话中,他再次强调这一观点,并指出AGI将是人类历史上最具颠覆性的时刻之一,其实现正在加速。若给出一个时间范围,他认为距离真正的AGI仅剩5到10年。
谈及未来愿景,Hassabis充满憧憬地表示,他毕生的梦想是实现一个“丰饶时代”的理想社会,其中人类面临的最大问题都已被解决。例如,我们拥有免费的、可再生的清洁能源,可能通过核聚变或更高效的电池、太阳能材料、半导体等材料科学突破;许多疾病被攻克。届时,人类将进入一个全新的“后稀缺时代”,繁荣发展,迈向星际文明,将意识播撒到银河系。
然而,这种乌托邦式的图景也伴随着深刻的哲学问题:如果技术能解决所有难题,人类存在的目的又是什么?还会剩下什么问题值得我们去解决?作为一个科学家,Hassabis对此感到担忧,甚至对科学方法本身也产生了反思。
通往AGI的道路并非一帆风顺。Hassabis指出,恶意使用AI的风险真实存在,甚至可能带来灾难性后果。比如,针对能源或供水系统的网络攻击,这些目标已经显而易见。尽管目前尚未动用非常先进的AI,但这类事件已初现端倪。AI带来的最严重后果可能是灭绝级风险。他坦言,没人确切知道人类灭亡概率P(doom),但强调:“这个风险不是零。只要不是零,就必须认真对待,投入资源应对。”
Hassabis认为,当前最被低估的能力是Gemini能够“观看”视频并回答相关概念性问题。他举例说,曾询问Gemini电影《搏击俱乐部》中的一个场景:“打架前摘下了戒指,这个动作有什么象征意义?”Gemini回答,这代表主角脱离日常生活的象征,是对社会规范的拒绝,是一种“放弃身份”的宣言。Gemini的这类“抽象理解”能力出乎他的意料,他认为Gemini已经具备某种“元认知”。
另一个例子是Gemini Live功能。他认为,多模态AI的潜力远比大多数人今天所理解的要大得多。每次DeepMind推出新版模型时,Hassabis都会有种强烈的遗憾感:自己可能连这个系统的十分之一都没来得及深入测试,就已经要投入下一个版本的研发。而用户们往往会比Gemini开发人员更快地发掘新功能,把模型用到连他们都没想到的地方。
Hassabis最核心的观点可能是AGI的实现路径问题。他认为,我们距离真正的AGI还有大约5到10年的时间。DeepMind对AGI的定义要求很高:要称得上“通用”,AI系统必须全面具备人类的所有认知能力,其中包括“创造力”和“发明能力”。现在的LLM在某些领域已经非常惊艳,堪比博士水平,甚至能拿奥林匹克金牌;但在另外一些领域,它们仍然存在明显缺陷,呈现出“参差不齐”的智力表现。
真正的AGI应当拥有“各项能力均衡发展”的稳定智能。这包括当前模型所缺失的几个关键能力:持续学习、在线学习、长期规划和多步推理。目前,大语言模型完全不具备这些能力。他承认存在一种可能性,即规模扩展“可能就是AGI系统的全部”,尽管他认为这种情况可能性较小。这需要我们必须将规模扩展推向绝对极限。退一步说,规模扩展至少会成为最终AGI的“关键构件”。Hassabis相信,它们未来会具备这些能力,但我们可能还需要一两个重大技术突破。而谷歌似乎已经有了Transformer级的重大突破。
几天前,NeurIPS大会上一场对谈中,谷歌首席科学家Jeff Dean和AI教父Hinton同框。关于LLM和研究路线,Hinton当场提出了一个尖锐的问题——谷歌是否后悔发表Transformer论文?Jeff Dean给出了干脆的回应:“不后悔!这项研究对世界产生了重大的影响”。
几乎同一时间,谷歌放出了全新的架构Titans,成为Transformer的最强继任者!此外,还有一个全新的MIRAS框架。两者的结合,可以让AI模型在运行过程中动态更新核心记忆,跑得更快,也能处理超长规模的上下文。
众所周知,Transformer最大瓶颈在于,上下文无限扩展会导致计算成本飙升。除了业界迭代的RNN、Mamba-2等架构,谷歌也提出了新一代解决方案——如上所述,Titans+MIRAS,就是一套把RNN速度和Transformer准确性结合起来的架构与理论思路。
Titans(MAC)架构:通过一个长时记忆模块来压缩历史数据,并将生成的摘要加入当前上下文,再交由注意力机制处理。Titans是具体的模型架构(工具),而MIRAS是用于泛化这些方法的理论框架(蓝图)。它们合起来,实现了一种“测试时”记忆的能力。在运行时,模型不再只是把信息压成一段静态状态,而是在数据不断输入时主动学习,即时更新自己的参数。这个关键机制,可以让模型立刻把新的、具体的信息加入到核心知识里。值得一提的是,清华姚班校友钟沛林参与了两项工作。他博士毕业于哥伦比亚大学,2021年起加入谷歌任研究科学家。
一个高效的学习系统,需要既独立又互相关联的“记忆模块”。这一机制,就像人脑会将短期记忆和长期记忆区分开来一样。
为此,Titans引入了一种全新的神经长期记忆模块,本质上是一个深层神经网络(一个多层感知机MLP)。它拥有更强的表达能力,在不丢失关键信息的同时,总结海量内容。有了Titans,LLM不只是记笔记,而是在真正理解并串联整个故事。
论文地址:https://arxiv.org/pdf/2501.00663
更重要的是,Titans并非被动存储数据,而会主动学习如何识别并保留贯穿整个输入的重要关系和概念主题。衡量这一能力的核心指标之一,谷歌将其称之为“惊奇度”。假设遇到“高惊奇”度的信息时,会被优先写入长期记忆。而且,会随着不断学习,自适应管理权重,主动遗忘不再需要的信息。
序列建模的每一次重大突破,本质上都在使用同一种底层机制:高度复杂的联想记忆模块。MIRAS的独到之处和实用价值在于,它看待AI建模的方式——把各种架构视为解决同一个核心问题的“不同手段”:如何在融合新信息与旧记忆的同时,不让关键概念被遗忘。
MIRAS框架
MIRAS通过四个关键设计维度来定义序列模型:
记忆架构:承担信息存储的结构,例如向量、矩阵,或像Titans深层多层感知机。
注意偏置:模型内部优化的学习目标,决定优先关注哪些信息。
保留门:一种记忆正则化机制。MIRAS将传统“遗忘机制”重新解释为正则化形式,用于在学习新知识与保留旧知识之间取得平衡。
记忆算法:用于更新记忆状态的优化算法。
以MIRAS框架的视角审视近期序列模型
几乎所有现行成功的序列模型,在处理偏置和保留机制时,都依赖于均方误差或点积相似度。这种依赖导致模型对异常值过于敏感,并限制了其表达能力。MIRAS突破了这一局限。借鉴优化理论与统计学文献,它构建了一个生成式框架,开拓了更丰富的设计空间。
基于MIRAS,谷歌构建了三款独特的无注意力模型:YAAD、MONETA、MEMORA。在语言建模和常识推理任务中,Titans架构在同等规模下,优于最先进的线性循环模型(如Mamba-2和Gated DeltaNet)以及Transformer++基线模型。
新颖的MIRAS变体相比这些基线模型也提升了性能,验证了探索稳健的非MSE优化机制的优势。
重要的是,这些模型保持了高效的并行化训练和快速的线性推理速度。这些新架构最显著的优势在于其处理超长上下文的能力。这在BABILong基准测试中得到突出体现,该任务需要对分布在超长文档中的事实进行推理。在BABILong基准上,Titans以更少的参数量,表现优于包括GPT-4等超大型模型在内的所有基线模型。Titans进一步展示了可有效扩展到超过200万token上下文窗口的能力。
Titans在超长上下文推理任务上的性能表现
有Reddit网友预测,或许我们在明天就可以看到采用Titans架构的Gemini 4。
正如网友所言,这可能是谷歌继Transformer之后,首个重大突破!
在架构层面,Titans+MIRAS补上了“记忆与持续学习”。而在多模态能力层面,Gemini显露“元认知”的边缘形态。也许,AGI正加速到来。
参考资料:
https://www.youtube.com/watch?v=tDSDR7QILLg&t=11s
https://x.com/kimmonismus/status/1997026763353022647
https://x.com/DataChaz/status/1997211176422482341?s=20
https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
https://www.axios.com/2025/12/05/ai-deepmind-gemini-agi
本文由主机测评网于2026-03-01发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260327925.html