真正的开放评审,「众神之父赐予我视野!」
那个夜晚,无数研究人员辗转反侧,难以入眠。
11月27日晚间,北京时间,中国人工智能社区彻底沸腾。在学术论文评审广泛使用的OpenReview平台上,一个前端缺陷意外导致数据库信息泄露,使得传统的双盲评审机制完全透明化。
此次数据泄露方式极其简单:只需在浏览器中输入特定网址,手动替换论文ID和审稿人编号,即可查看任意审稿人的真实身份。作者们能够知晓谁评审了自己的论文,并看到具体的评分细节。
由于操作毫无门槛,消息迅速传开后,众人立即切换到调查模式,毕竟在学术圈中,与审稿人之间存在摩擦已不罕见,终于可以“冤有头债有主”了。
一时间,惊喜、震惊、愤怒与哀叹交织。微信社群、小红书等平台,到处是受害者分享经历,有揭露他人的,也有被揭露的。你永远无法预料给自己论文打低分的究竟是谁。
审稿人给予低分的原因多样,有的未能理解作者意图,有的涉及个人恩怨(例如同课题组内部互相压分),更恶劣的是通过打低分为自己正在撰写的同类论文“扫清道路”。有人利用此次泄露事件证实,自己曾获1分低评的论文,审稿人竟在五个月后提交了另一篇论文,且拒绝引用原投稿。
随后,社交媒体上又有爆料称,一些疑似恶意打低分的审稿人,在身份全面曝光后紧急大幅提升了对论文的评分。
旁观者们指出,这次事件将早已加剧的人工智能顶会论文评审矛盾推向新高。戏剧性达到顶点,从黑暗森林步入广播纪元。
永远不要幻想在互联网上能够真正匿名。
很快,人们发现OpenReview的这一漏洞是系统性的,仅需替换网址中的另一段字符,就能同样查看其他年份的ICLR论文,以及NeurIPS、ICML、ACL等众多AI顶会评审信息。
众所周知,由于人工智能领域热度攀升,投稿量激增,各大会议均面临审稿人资源短缺的问题,审稿质量下降的抱怨时有发生。在ICLR 2026上,Pangram Labs的数据分析显示,约21%的ICLR同行评审完全由人工智能生成,超过一半的评审带有AI使用痕迹。
另一方面,也有199篇论文被检测出完全由AI生成,9%的论文中超过50%的文本由AI创作。
作为AI领域三大顶会之一,ICLR近年来在学界和业界关注度持续上升,2026年大会定于明年四月在巴西里约热内卢举行。本届大会共收到19490篇研究论文投稿,同时产生了75800条同行评审意见。
大约在周五零点,漏洞被紧急修复,ICLR随后发布官方声明。
ICLR声明,任何使用、披露或传播泄露信息者将被拒稿并永久禁止参与ICLR会议,大会方未来还将采取进一步措施。
随后,OpenReview也发布了官方公告。
但这并未完全抑制部分人的吃瓜热情。据悉,有人爬取了完整名单并进行数据分析。有用户评选出了评分异常严苛的审稿人列表。
基于ICLR 2026前一万篇投稿的评审结果,结合审稿人的国别(主要语言),有人总结了平均打分习惯。数据显示,中国审稿人普遍较为慷慨,韩国审稿人则相对严格。
照此趋势,或许不久后,我们就能找出今年八月NeurIPS中写下“Who"s Adam?”评审意见的真实身份了。
学界与业界的权威人士也纷纷对此事件发表评论。
加州理工学院计算机与数学科学教授、ICLR理事会成员、ICLR 2025主席Yisong Yue表示,目前需要召开紧急会议,自己已感到不知所措。
总体而言,此次ICLR泄密事件严重破坏了学术公平性。审稿人匿名性的丧失阻碍了对研究的批判性反馈,赋予作者额外反击机会,从而颠覆了原有平衡。这使被接收论文的可信度受到影响。然而,另一方面,由于原本完全匿名的评审中不时出现恶意或不负责的评论,此次泄露事件瞬间引发的高热度也值得深思。
在此之后,匿名评审制度是否会迎来变革?
本文由主机测评网于2026-01-29发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260121518.html