当前位置:首页 > 科技资讯 > 正文

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36

英伟达的紧凑型人工智能模型持续在竞争中取得显著胜利。

在ARC-AGI 2最新评估中,仅4B参数的小模型NVARC27.64%的公开榜成绩超越GPT-5 Pro的18.3%,成功登顶榜首。

且每个任务成本低至20美分,大约是GPT-5 Pro单任务成本(超过7美元)的1/36

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第1张

据官方解析,此次NVARC夺冠的亮点在于采用零预训练深度学习方法,无需依赖大规模通用数据集进行前期预训练,有效规避了预训练模型的领域偏见、数据依赖等挑战。

而ARC-AGI 2确实是一个消除了与公共训练数据重叠的高难度测试,主要考察模型高效获取超出训练数据新技能的能力。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第2张

成绩发布后,官方对NVARC团队的Jean-Francois Puget和Ivan Sorokin进行了访谈,深入剖析技术细节。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第3张

快来探索这款“性价比之王”是如何锻造而成的?

不依赖参数堆砌

英伟达的策略是将复杂推理移至离线的合成数据管道,训练出能在评估时快速运行的较小模型。

简单来说,通过大规模合成高质量数据来优化现有模型,并且将昂贵的计算工作转移到离线进行

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第4张

由于Kaggle比赛对计算资源限制极为严格,团队意识到无法直接使用需要超强算力的大型LMM进行复杂的一步一步推理和代码生成。

因此他们转变思路,决定将最耗计算资源的工作离线完成,例如利用GPT-OSS-120B来大规模制作高质量的合成谜题。

团队从H-ARC、BARC数据集中搜集现有ARC谜题数据,然后将简单谜题混合,生成更复杂的新谜题。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第5张

为确保数据质量,他们将复杂推理管线拆分为不同阶段,每个阶段都可以独立验证。

通过这种方式,他们建立了一个含320万以上增强样本的合成数据集,其中每个样本最多有7对输入/输出。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第6张

这里值得一提,哈萨比斯刚强调了Scaling Law的重要性,那么合成数据的扩展性同样不容忽视。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第7张

言归正传,NVARC核心的推理模块以改进版ARChitects方法为基础,选用小参数模型Qwen3-4B,通过对话式模板简化谜题理解。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第8张

训练时借助NeMo RL框架和Megatron后端进行监督微调。

不过,让模型取得优异成绩的关键一步在于测试时微调(TTFT)。

针对ARC-AGI-2“每个任务都是全新规则”的特点,NVARC引入了LoRA微调技术,并且针对每一个问题都进行微调,让模型在做题前快速适应。

而对ARChitects方法的改进在于解码阶段DFS算法做了批处理优化,修复结果非确定性问题。

同时统一了8种数据增强操作评估候选解,最终在公开榜获得了27.64%的分数。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第9张

在竞赛后期,团队还应用了“少即是多”的TRM方法,尝试与Qwen3-4B集成补充分数,虽然有一定提升,但受各种限制并没有大幅优化。

那么问题来了,有人会说这样训练出来的小模型不就是做题机器吗?哪里比得上全面发力的超级大模型?

但更值得关注的或许不在于模型本身,而在于实现突破的方法。

在特定领域任务中,小模型经过针对性优化,性能并不逊色,再加之成本、速度、适配性与领域聚焦优势,它们已经在诸多场景崭露头角。

将正确的方法用在正确的地方,将会实现更大的价值。

英伟达小模型NVARC以27.64%得分登顶ARC-AGI 2榜单,成本仅为GPT-5 Pro的1/36 英伟达 NVARC ARC-AGI 2 零预训练深度学习 第10张

借用这位网友所说,模型或许应该被设计得更加“敏捷”。

论文地址:https://drive.google.com/file/d/1vkEluaaJTzaZiJL69TkZovJUkPSDH5Xc/view

参考链接:

[1]https://developer.nvidia.com/blog/nvidia-kaggle-grandmasters-win-artificial-general-intelligence-competition/

[2]https://arcprize.org/blog/arc-prize-2025-results-analysis

[3]https://www.kaggle.com/competitions/arc-prize-2025/writeups/nvarc