英伟达的紧凑型人工智能模型持续在竞争中取得显著胜利。
在ARC-AGI 2最新评估中,仅4B参数的小模型NVARC以27.64%的公开榜成绩超越GPT-5 Pro的18.3%,成功登顶榜首。
且每个任务成本低至20美分,大约是GPT-5 Pro单任务成本(超过7美元)的1/36。
据官方解析,此次NVARC夺冠的亮点在于采用零预训练深度学习方法,无需依赖大规模通用数据集进行前期预训练,有效规避了预训练模型的领域偏见、数据依赖等挑战。
而ARC-AGI 2确实是一个消除了与公共训练数据重叠的高难度测试,主要考察模型高效获取超出训练数据新技能的能力。
成绩发布后,官方对NVARC团队的Jean-Francois Puget和Ivan Sorokin进行了访谈,深入剖析技术细节。
快来探索这款“性价比之王”是如何锻造而成的?
英伟达的策略是将复杂推理移至离线的合成数据管道,训练出能在评估时快速运行的较小模型。
简单来说,通过大规模合成高质量数据来优化现有模型,并且将昂贵的计算工作转移到离线进行。
由于Kaggle比赛对计算资源限制极为严格,团队意识到无法直接使用需要超强算力的大型LMM进行复杂的一步一步推理和代码生成。
因此他们转变思路,决定将最耗计算资源的工作离线完成,例如利用GPT-OSS-120B来大规模制作高质量的合成谜题。
团队从H-ARC、BARC数据集中搜集现有ARC谜题数据,然后将简单谜题混合,生成更复杂的新谜题。
为确保数据质量,他们将复杂推理管线拆分为不同阶段,每个阶段都可以独立验证。
通过这种方式,他们建立了一个含320万以上增强样本的合成数据集,其中每个样本最多有7对输入/输出。
这里值得一提,哈萨比斯刚强调了Scaling Law的重要性,那么合成数据的扩展性同样不容忽视。
言归正传,NVARC核心的推理模块以改进版ARChitects方法为基础,选用小参数模型Qwen3-4B,通过对话式模板简化谜题理解。
训练时借助NeMo RL框架和Megatron后端进行监督微调。
不过,让模型取得优异成绩的关键一步在于测试时微调(TTFT)。
针对ARC-AGI-2“每个任务都是全新规则”的特点,NVARC引入了LoRA微调技术,并且针对每一个问题都进行微调,让模型在做题前快速适应。
而对ARChitects方法的改进在于解码阶段DFS算法做了批处理优化,修复结果非确定性问题。
同时统一了8种数据增强操作评估候选解,最终在公开榜获得了27.64%的分数。
在竞赛后期,团队还应用了“少即是多”的TRM方法,尝试与Qwen3-4B集成补充分数,虽然有一定提升,但受各种限制并没有大幅优化。
那么问题来了,有人会说这样训练出来的小模型不就是做题机器吗?哪里比得上全面发力的超级大模型?
但更值得关注的或许不在于模型本身,而在于实现突破的方法。
在特定领域任务中,小模型经过针对性优化,性能并不逊色,再加之成本、速度、适配性与领域聚焦优势,它们已经在诸多场景崭露头角。
将正确的方法用在正确的地方,将会实现更大的价值。
借用这位网友所说,模型或许应该被设计得更加“敏捷”。
论文地址:https://drive.google.com/file/d/1vkEluaaJTzaZiJL69TkZovJUkPSDH5Xc/view
参考链接:
[1]https://developer.nvidia.com/blog/nvidia-kaggle-grandmasters-win-artificial-general-intelligence-competition/
[2]https://arcprize.org/blog/arc-prize-2025-results-analysis
[3]https://www.kaggle.com/competitions/arc-prize-2025/writeups/nvarc
本文由主机测评网于2026-02-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260223202.html