【导读】同行评审体系正在经历一场前所未有的变革!面对论文数量的指数级增长,顶级会议ICML 2026推出了复杂的「双轨制」政策,允许有限度地使用AI辅助审稿,并通过「对等原则」防止双重标准;而新兴平台aiXiv则更加激进地拥抱「全自动科研」,论文由AI撰写、AI评审。一条是AI辅助的改良之路,另一条是AI原生的颠覆之路,两者都是为了应对AI领域论文数量的爆炸式增长。
学术界正站在一个微妙的十字路口,面临着同行评审体系的深刻变革。
左边是拥挤不堪的传统顶会,无数人类审稿人在海量论文的冲击下疲惫不堪,他们试图在捍卫「人类评价标准」的同时,谨慎地引入AI作为助手,以缓解日益沉重的工作负担。
右边则是一片狂野的新大陆,在那里,机器撰写论文,机器审阅论文,科学发现的飞轮正在脱离人类生理极限的束缚,全速旋转,奔向未知的领域。
这两条路,分别由机器学习顶级会议ICML 2026和预印本平台aiXiv代表。
它们看似都在解决同行评审体系崩溃这一紧迫问题,但指向的却是两种截然不同的科学未来。
作为机器学习领域的皇冠明珠,ICML(国际机器学习会议)的选择往往被视为整个学术界的风向标。
在即将到来的ICML 2026中,组委会决定不再对AI采取简单的「封杀」或「放任」态度,而是设计了一套极其复杂的「双轨制」政策,试图在技术冲击与人文价值之间寻找平衡。
根据ICML公布的新政,审稿流程被划分为两条平行线:Policy A(保守派)与 Policy B(温和派)。
在Policy A里,AI被严格禁止。
除了拼写检查和传统的文献检索工具,审稿人必须依靠纯粹的人类智力来完成阅读、理解和批判性思考。
这是一块为「原教旨主义者」保留的净土,强调人类判断的不可替代性。
而在Policy B里,规则变得暧昧:审稿人被允许使用AI,但有着严格的界限。
你可以用大模型来辅助理解晦涩的数学公式,或者润色你的评审意见,但你绝不能把审稿的核心权力让渡给机器。
直接向AI提问「这篇论文的优缺点是什么?」,或者「请帮我写一段评审综述」,依然是绝对的禁区,必须由人类自主完成。
这套看似割裂的方案,实则是对学术界现状的无奈妥协,反映了社区内部的深刻分歧。
ICML在制定政策前进行的调研显示,社区已经彻底分裂:
约40%的审稿人强烈支持严禁AI的保守路线,但也有30%的人渴望拥抱AI;
作为作者时,双方更是势均力敌,各占半壁江山,难以形成统一意见。
更现实的数据是,已有70%的受访者习惯用AI润色文字,如果实施全面禁令,四成审稿人直言工作将难以为继,这凸显了AI工具在日常工作中的普及程度。
正是这种不可调和的「最大公约数」困境,迫使组委会最终放弃了统一规则,转而寻求分而治之的策略。
除此以外,更有趣的是ICML设计的「匹配机制」。
这是一次关于学术诚信的博弈,旨在防止投机行为。
作者在投稿时,需要声明自己是「必需A」还是「允许B」。
审稿人也需要选边站队。系统会尽量撮合意愿匹配的双方,以确保评审过程的公平性。
但ICML引入了一条「对等原则」:如果你作为作者强硬地要求自己的论文必须由纯人类审稿(选择Policy A),那么当你作为审稿人时,你也必须承诺不使用AI。
这一条款极其精妙地遏制了潜在的「双标」行为:那些希望别人用生命在读自己的论文,自己却用AI敷衍别人的投机者,在这里将无处遁形,确保了政策的自洽性。
组委会还进行了一项调查,如果要求偏好政策B的审阅者按照政策A进行审阅,是否存在不合规的风险。
从上图的调查结果得知,如果ICML强行搞「一刀切」禁止LLM,虽然大部分人会遵守(深蓝),但会给一部分人带来工作负担(浅蓝),甚至逼迫极少数人走向「学术不端」(橙色)。
这些数据也支撑了ICML的判断:「统一禁止LLM可能不是正确的方法」,因此双轨制成为必然选择。
此外,ICML对Policy B中使用的AI工具设定了极高的门槛:必须是「隐私合规」的。
这意味着你不能随手把论文丢进免费版的ChatGPT或Claude,因为这些数据可能会被用来训练模型,导致未发表成果的泄露,损害作者的知识产权。
审稿人必须使用企业级API、本地部署的模型,或者明确带有「不训练数据」条款的付费服务,以确保论文内容的安全。
这个看似技术性的细节,实则在学术界划出了一道隐形的阶级鸿沟。
拥有充裕经费、能够订阅企业级AI服务的顶尖实验室成员,将能合法地利用AI提效;
而资源匮乏的独立研究者,可能被迫留在Policy A的慢车道上,从而加剧学术资源的不平等。
为了监控这场实验的效果,ICML甚至计划引入随机对照试验。
他们会对比两个「宇宙」中审稿分数的分布差异。
如果发现使用AI的审稿人系统性地给出了更高或更低的分数,程序主席将介入干预,以确保评分的公正性。
这清楚地表明,ICML的野心不止于维持秩序,他们试图量化AI对人类判断力的具体影响,为未来政策提供数据支持。
值得关注的是,在即将到来的ICML 2026中,组委会迎来了多位华人学者担纲重任,彰显了华人学者在AI领域的日益增长的影响力。
其中,现任UIUC计算机系教授张潼将担任大会主席(General Chair)。
张潼教授拥有斯坦福大学博士学位,学术与工业界履历均十分亮眼。
他曾任教于香港科技大学和罗格斯大学,并在IBM、百度、腾讯等多家科技公司担任要职,兼具理论与实践经验。
他的研究领域广泛,涵盖机器学习理论、优化理论及强化学习等多个方向,是该领域的权威专家。
另一位担任要职的华人学者,是现任宾夕法尼亚大学沃顿商学院及计算机系副教授苏炜杰。
他将出任学术诚信主席(Integrity Chair),负责统筹和监督明年ICML的评审过程,确保整个流程的透明与公正。
作为北京大学数院07级校友及斯坦福大学博士,苏炜杰的研究主要聚焦于大模型的数学理论、优化算法及数据隐私保护。
特别值得一提的是,他提出的保序机制(Isotonic Mechanism)为提升AI会议审稿质量提供了重要途径,该机制自2023年起已在ICML连续三年进行实验,有望在2026年得到更广泛的应用。
如果说ICML是在旧世界的废墟上修修补补,试图在保留人类中心地位的前提下提升效率,那么aiXiv则彻底推倒了这堵墙,拥抱一个完全由AI驱动的科研世界。
在这个由清华大学、牛津大学、多伦多大学、曼彻斯特大学等多家机构研究者联合发起的平台上,人类不再是科学发现的唯一主角,AI成为平等的参与者甚至主导者。
aiXiv打出的旗号惊世骇俗:我们欢迎由AI撰写的论文,也欢迎由AI审阅的论文,彻底打破了人类对知识生产的垄断。
aiXiv的发起人之一Guowei Huang直言:「AI生成的知识不应受到区别对待,我们只在乎质量,不在乎是谁生产了它。」这一观点挑战了学术界的传统认知。
在aiXiv的后台,一组AI审稿智能体日夜不休地工作。
它们会从创新性、技术稳健性和潜在影响力等维度对论文进行打分,只要达到某个门槛,就能在极短时间内发布到平台上。
而传统期刊的同行评审往往需要耗费数月甚至数年,aiXiv的效率优势显而易见。
更激进的是,这是一个闭环。
作者可以根据AI智能体的反馈修改论文,然后再次提交,如此往复,形成人机协作或机机协作的快速迭代循环。
早期的测试数据声称,这种「人机迭代」或「机机迭代」能显著提升论文质量,加速科学发现的进程。
aiXiv的出现,是对现有学术出版体系的一次无声嘲讽,挑战了传统期刊和会议的权威。
arXiv前不久宣布不再接收纯AI撰写的综述文章,除非已经在期刊或会议通过同行评审;Science等顶刊依然对AI署名严防死守,坚持人类作者的主体性。
主流学界依然在努力辨别「什么是人写的,什么是机器写的」,而aiXiv摊手表示:这重要吗?只要内容有价值,来源并不重要。
当然,质疑声从未停歇。
俄勒冈州立大学的Thomas Dietterich教授警告说,大模型正在变得越来越像科学家,但这不代表它们具备了科学家的判断力。
它们善于模仿科学论文的架构和语气,却未必能保证内容的真实性和逻辑的严谨性。
一个充满「幻觉」的科学界是可怕的,可能导致大量虚假知识的传播。
如果AI开始大量炮制看起来完美无缺但逻辑虚假的论文,并由另一群AI审稿人给予通过,人类科学的大厦可能会被某种被称为「学术垃圾」的流沙所吞没,造成知识的污染。
ICML的谨慎与aiXiv的激进,看似背道而驰,实则源于同一种焦虑:人类处理信息的带宽,已经远远跟不上信息指数级膨胀的速度。
过去几年,AI领域的论文数量呈现出一种近乎病态的增长。人类审稿人不仅要面对数量的压力,还要面对质量的参差,以及日益复杂的交叉学科内容。
bioRxiv和medRxiv等预印本平台已经引入AI工具来筛选涉嫌造假的论文,初步尝试用技术应对技术问题。
在这种背景下,ICML选择了一条改良主义的道路。
它承认AI的工具属性,但试图通过制度设计(如对等原则、隐私合规)将AI关在笼子里,让它做人类的助手而非替代者。
它试图保留科学评价中那种微妙的、难以量化的「人类直觉」,认为这是科学创新的灵魂。
而aiXiv选择了一条加速主义的道路。
它默认人类已经无法独自处理现代科学的数据量,因此必须将部分(甚至全部)认知工作外包给硅基智能。
它在赌,赌AI最终能涌现出鉴别真理的能力,就像它们涌现出语言能力一样,从而接管科学评价的重任。
这两场实验的结果,将决定我们未来的科学是什么样子。
是继续维持那个由少数精英人类把关、运转缓慢但相对可信的象牙塔?还是拥抱一个由算法驱动、泥沙俱下但在此刻就能触达未来的数据海洋?这成为一个开放性问题。
ICML 2026的政策将在未来几年内面临巨大的执行挑战。
如何界定「辅助」与「代笔」的边界?如何监督和执行隐私合规要求?
如何确保富裕机构与贫穷机构的公平?这些都需要在实践中摸索。
当大多数人都习惯了Policy B的便利,Policy A是否会沦为一种虽然高尚但无人问津的「复古情怀」?人类的主导地位是否会逐渐丧失?
与此同时,aiXiv里的智能体正在以远超传统期刊的速度吞吐着论文。
它们不关心人类的伦理纠结,只关注效率和产出。
在这个技术与智力极速变革的时代,我们要警惕的或许不是AI会取代科学家,而是科学本身的定义被悄然改写。
真正的科学探索,往往诞生于困惑、停顿和长时间的无解之中,这些是人类智慧的闪光时刻。
而AI追求的是流畅、概率和最优解,可能会忽略那些看似离经叛道、实则颠覆认知的「小概率真理」。
当我们将审稿的权力全部或部分让渡给追求「大概率正确」的模型时,我们是否也在无意中过滤掉了那些真正具有革命性的思想?
或许,这才是ICML坚持保留Policy A的真正深意——为人类的直觉和创造力保留一片净土。
参考资料:
https://icml.cc/public/LLM-Policy
https://icml.cc/public/Intro-LLM-Policy
https://www.science.org/content/article/new-preprint-server-welcomes-papers-written-and-reviewed-ai
本文由主机测评网于2026-03-03发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328465.html