当前位置:首页 > 科技资讯 > 正文

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决

【导读】学术评审机制正迎来一场颠覆性革新!面对论文数量的爆炸式增长,顶级会议ICML 2026推出了复杂的「双轨制」新规,允许有限度地借助AI进行审稿,并引入「对等原则」杜绝双重标准;而新兴平台aiXiv则激进地拥抱「全自动科研」,由AI撰写、AI评审。一条是AI融合之路,另一条是AI原生之路,两者皆旨在应对AI领域论文激增的挑战。

学术界正处于一个关键的十字路口。

左侧是拥挤不堪的传统顶会,无数人类审稿人在论文海洋中不堪重负,他们试图在维护「人类评判标准」的同时,审慎地引入AI作为辅助工具;

右侧则是一片全新的疆域,在那里,机器生成论文,机器审核论文,科学发现的进程正突破人类生理极限,加速运转。

这两条路径,分别由机器学习顶级会议ICML 2026和预印本平台aiXiv作为代表。

它们看似都在解决同行评审体系崩溃的问题,但指向的却是两种迥异的科学未来。

ICML 2026:一场关乎诚信与人性的社会实验

作为机器学习领域的巅峰会议,ICML(国际机器学习会议)的决策常被视为行业风向标。

在即将到来的ICML 2026中,组委会不再对AI采取简单「禁止」或「放任」策略,而是设计了一套精细复杂的「双轨制」政策。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第1张

根据ICML发布的新规,审稿流程分为两条平行轨道:Policy A(保守派)与 Policy B(温和派)。

在Policy A中,AI被严格限制使用。

除了基础拼写检查和传统文献检索工具外,审稿人必须完全依赖人类智力进行阅读、理解和批判。

这是一片为「纯粹主义者」保留的领地。

而在Policy B中,规则则更为灵活:审稿人可有限度使用AI,但存在明确边界。

你可以利用大模型辅助理解复杂数学公式,或优化评审意见表达,但绝不能将审稿决策权移交机器。

询问AI「这篇论文的优缺点是什么?」或「请帮我撰写评审总结」,仍然被绝对禁止。

这套看似分裂的方案,实则是学术界现状的无奈反映。

ICML在政策制定前的调研显示,社区意见已彻底分化:

约40%的审稿人强烈支持严禁AI的保守路线,但也有30%的人希望积极采用AI;

作为作者时,双方立场更是旗鼓相当,各占一半。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第2张

更现实的数字是,已有70%的受访者习惯用AI优化文字,若全面禁止,四成审稿人坦言工作将难以持续。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第3张

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第4张

正是这种难以调和的「最大公约数」困境,迫使组委会最终放弃了统一规则。

此外,ICML设计的「匹配机制」尤为引人注目。

这是一次关于学术诚信的巧妙博弈。

作者投稿时,需声明自己属于「必需A」或「允许B」阵营。

审稿人也需选择站队。系统会尽力匹配意愿一致的双方。

但ICML引入了一条「对等原则」:若作者强硬要求论文必须由纯人类审稿(选择Policy A),则其作为审稿人时也必须承诺不使用AI。

这一条款精妙地遏制了潜在的「双重标准」行为:那些期望他人全力评审自己论文、自己却用AI敷衍的投机者,在此将无所遁形。

组委会还调研了若强制偏好政策B的审稿人按政策A审稿,是否存在违规风险。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第5张

从上图调查结果可知,若ICML强行「一刀切」禁止LLM,虽多数人会遵守(深蓝),但会给部分人增加负担(浅蓝),甚至迫使极少数人走向「学术不端」(橙色)。

这些数据也支撑了ICML的判断:「统一禁止LLM可能并非正确之道」。

此外,ICML对Policy B中使用的AI工具设定了高标准:必须是「隐私合规」的。

这意味着你不能随意将论文投入免费版ChatGPT或Claude,因这些数据可能被用于训练模型,导致未发表成果泄露。

审稿人须使用企业级API、本地部署模型,或明确带有「不训练数据」条款的付费服务。

这个看似技术性的细节,实则在学术界划出一道隐形鸿沟。

拥有充足经费、可订阅企业级AI服务的顶尖实验室成员,将能合法利用AI提升效率;

而资源有限的独立研究者,可能被迫停留在Policy A的慢车道上。

为监控这场实验效果,ICML甚至计划引入随机对照试验。

他们会对比两个「轨道」中审稿分数的分布差异。

若发现使用AI的审稿人系统性地给出更高或更低分数,程序主席将介入调整。

这清楚表明,ICML的野心不止于维持秩序,他们试图量化AI对人类判断力的具体影响。

ICML 2026组委会

值得关注的是,在即将到来的ICML 2026中,组委会迎来了多位华人学者担任要职。

其中,现任UIUC计算机系教授张潼将出任大会主席(General Chair)。

张潼教授持有斯坦福大学博士学位,学术与工业界经验均十分突出。

他曾任教于香港科技大学和罗格斯大学,并在IBM、百度、腾讯等多家科技公司担任重要职位。

他的研究领域广泛,涵盖机器学习理论、优化算法及强化学习等多个方向。 

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第6张

另一位担任关键职务的华人学者,是现任宾夕法尼亚大学沃顿商学院及计算机系副教授苏炜杰。

他将担任学术诚信主席(Integrity Chair),负责统筹和监督明年ICML的评审流程。

作为北京大学数院07级校友及斯坦福大学博士,苏炜杰的研究主要聚焦于大模型的数学理论、优化算法及数据隐私保护。

特别值得一提的是,他提出的保序机制(Isotonic Mechanism)为提升AI会议审稿质量提供了重要方案,该机制自2023年起已在ICML连续三年进行测试。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第7张

aiXiv:当科学探索不再依赖人类

如果说ICML是在旧体系基础上进行修补,试图在保持人类核心地位的前提下提升效率,那么aiXiv则彻底打破了这堵墙。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第8张

在这个由清华大学、牛津大学、多伦多大学、曼彻斯特大学等多家机构研究者联合发起的平台上,人类不再是科学发现的唯一主导者。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第9张

  • 主页地址:https://aixiv.science
  • 论文地址:https://arxiv.org/abs/2508.15126

aiXiv的口号令人震撼:我们欢迎由AI撰写的论文,也欢迎由AI评审的论文。

aiXiv的发起人之一Guowei Huang直言:「AI生成的知识不应受到歧视,我们只关注质量,而非生产者是谁。」

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第10张

在aiXiv的后台,一组AI审稿智能体持续不间断地工作。

它们会从创新性、技术稳健性和潜在影响力等维度对论文评分,只要达到特定阈值,就能在极短时间内发布到平台。

而传统期刊的同行评审往往需耗时数月甚至数年。

更激进的是,这是一个闭环系统。

作者可根据AI智能体的反馈修改论文,然后再次提交,循环往复。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第11张

早期测试数据声称,这种「人机迭代」或「机机迭代」能显著提升论文质量。

aiXiv的出现,是对现有学术出版体系的一次无声挑战。

arXiv前不久宣布不再接收纯AI撰写的综述文章,除非已在期刊或会议通过同行评审;Science等顶刊依然对AI署名严加防范。

主流学界仍在努力区分「人写与机写」,而aiXiv则淡然表示:这重要吗?

当然,质疑声从未停止。

俄勒冈州立大学的Thomas Dietterich教授警告说,大模型正越来越像科学家,但这不意味着它们具备了科学家的判断力。

AI浪潮中的学术评审变革:ICML 2026双轨制与aiXiv全自动平台的对决 同行评审  AI审稿 双轨制 aiXiv 第12张

它们擅长模仿科学论文的结构和语气,却未必能保证内容的真实性。

一个充满「幻觉」的科学界是可怕的。

若AI开始大量生成看似完美但逻辑虚假的论文,并由另一群AI审稿人通过,人类科学大厦可能会被「学术垃圾」的流沙吞噬。

殊途同归的焦虑

ICML的谨慎与aiXiv的激进,看似方向相反,实则源于同一种焦虑:人类处理信息的能力,已远远跟不上信息指数级增长的速度。

过去几年,AI领域论文数量呈现近乎病态的增长。人类审稿人不仅要面对数量压力,还要应对质量参差。

bioRxiv和medRxiv等预印本平台已引入AI工具筛选涉嫌造假的论文。

在此背景下,ICML选择了一条改良主义道路。

它承认AI的工具属性,但试图通过制度设计(如对等原则、隐私合规)将AI约束在助手角色,而非替代者。

它努力保留科学评价中那种微妙、难以量化的「人类直觉」。

而aiXiv选择了一条加速主义道路。

它默认人类已无法独自处理现代科学的数据量,因此必须将部分(甚至全部)认知工作外包给硅基智能。

它在赌,赌AI最终能涌现出鉴别真理的能力,正如它们涌现出语言能力一样。

这两场实验的结果,将塑造我们未来的科学面貌。

是继续维持那个由少数精英人类把关、运转缓慢但相对可信的象牙塔?还是拥抱一个由算法驱动、泥沙俱下却能即刻触达未来的数据海洋?

ICML 2026的政策将在未来几年面临巨大执行挑战。

如何界定「辅助」与「代笔」的边界?

如何确保富裕机构与资源有限机构的公平?

当多数人习惯了Policy B的便利,Policy A是否会沦为一种高尚却无人问津的「怀旧情怀」?

与此同时,aiXiv中的智能体正以远超传统期刊的速度吞吐论文。

它们不关心人类的伦理纠结。

在这个技术与智力极速变革的时代,我们需警惕的或许不是AI取代科学家,而是科学本身的定义被悄然改写。

真正的科学探索,往往诞生于困惑、停顿和长期的无解之中。

而AI追求的是流畅、概率和最优解。

当我们将审稿权力全部或部分让渡给追求「大概率正确」的模型时,我们是否也在无意中过滤掉了那些看似离经叛道、实则颠覆认知的「小概率真理」?

或许,这才是ICML坚持保留Policy A的深层意义。

参考资料:

https://icml.cc/public/LLM-Policy 

https://icml.cc/public/Intro-LLM-Policy 

https://www.science.org/content/article/new-preprint-server-welcomes-papers-written-and-reviewed-ai