惊人揭露:21%的ICLR审稿意见竟完全由AI生成!从“AI撰写”到“AI评审”,这场“裸奔”事故彻底撕开了学术圈的遮羞布。深度复盘那疯狂的61分钟,见证AI顶会史上最荒诞一夜。
2025年11月27日,感恩节。
但对全球AI学术圈而言,特别是向ICLR 2026投稿的数万研究者:
这一天,天塌了!
一场灾难级的“裸奔”正在上演——字面意义的“裸奔”!
只需将投稿ID填入特定API链接,就能瞬间获取论文所有作者、审稿人、领域主席的完整信息:
姓名、邮箱、机构、个人履历,甚至未发出的拒稿理由。
这可能是AI顶会时代最荒诞的一夜!
拓展阅读:学术圈炸锅!ICLR“开盒”事件引爆全网,审稿人全员暴露
最新声明显示:超1万篇论文评审信息遭泄露!
事件重创评审流程,引发社区对学术评审安全性的深切担忧。
传播数据者已被识别并遭永久封杀;任何串通投稿将被直接拒稿!
OpenReview因一个低级API漏洞,将“双盲评审”这块遮羞布彻底扯下。
OpenReview承载着ICLR、NeurIPS、ICML等几乎所有AI顶会评审!
但这还不是最魔幻的。
当众人忙于“人肉”审稿人或吃瓜时,AI检测公司Pangram Labs利用泄露数据,给学术圈一记响亮耳光:
分析显示,21%的ICLR 2026审稿意见完全由AI生成。
超一半审稿意见有AI润色或参与痕迹。
甚至出现“AI写论文,AI审论文,因AI幻觉互相吹捧”的赛博朋克闭环。
这不仅是一次技术事故,更是学术界最大信任危机。
复盘这场闹剧,揭示“同行评审”制度在2025年已腐烂至何程度。
起因简单得发指。
OpenReview在AI学术圈地位崇高,初衷是透明公开,让评审成为社区讨论一部分。
但11月27日,这种“开放”变成“门户大开”。
漏洞出在profiles/search的API接口上。
正常逻辑中,此类涉及身份信息的接口应有最严格权限验证。
但OpenReview后端似乎忘了这点。
技术上,这叫BOLA(对象级授权失效),是OWASP API安全列表排名第一的漏洞类型,也是最“低级”错误之一。
攻击者只需构造特定URL请求,修改group参数:
查看作者?参数改为Submission{paper_id}/Authors。
查看审稿人?改为Submission{paper_id}/Reviewer_{k}。
查看领域主席?改为Submission{paper_id}/Area_Chair_{k}。
无需黑客技术。
无需复杂渗透工具。
无需管理员密码。
如同住酒店时,用记号笔将房卡房间号“101”改为“102”,就能刷开隔壁门。
回顾那个疯狂早晨。
根据ICLR官方报告,还原惊心动魄的61分钟:
从发现到修复仅一小时。
但在互联网时代,一小时足够将ICLR 2026扒得底裤不剩。
短短60多分钟里,有人编写脚本疯狂爬取数据。
很快,一个包含超10,000篇ICLR投稿论文(占投稿量45%)的详细数据集,在Telegram群组、社交媒体疯传。
这不止是Excel表格,更是一张巨大“关系网”。
谁是谁的作者?谁给了低分?谁在阴阳怪气?谁是“铁面无私”的AC?
一切暴露无遗。
“ICLR=I Can Locate Reviewer”
学术圈反应两极分化。
有人恐慌。
想象你是年轻教职人员,审稿时犀利批评业内大佬论文并给拒稿。原以为双盲保护,现在大佬知你身份。明年基金申请谁审?未来如何混迹圈子?
一位教授在Reddit反思:“许多匿名下才能说的诚实批评意见,现成悬顶之剑。”
有人狂欢。
对被“不负责任审稿人”折磨的作者,这似天降正义。
“终于知道谁在胡说八道!”
“原来批评我缺乏创新的审稿人,自己一篇顶会都没发过!”
“现世报!”
小红书、Twitter、Reddit上新梗诞生:
ICLR不再是International Conference on Learning Representations。
现叫:I Can Locate Reviewer。
玩笑背后,是学术圈对评审机制积压已久的愤怒与无奈。
网络梗图显示,愤怒和无奈是事件主情绪。
若只停留在“知彼此是谁”,顶多尴尬。
但人性经不起考验,尤其涉及顶会论文的巨大利益。
泄露后24小时内,学术“黑暗森林”法则生效。
ICLR博客披露细节,读来不寒而栗。
ICLR声明称,随名单泄露,大量串通行为浮出。
手段直接粗暴:
直接联系:作者不再伪装,直发电邮。“王教授/李博士,看到您是我审稿人,能否高抬贵手?”
利益交换:“这次您放我一马,下次您论文落我手,我也给满分。”默契“互保”。
金钱贿赂:ICLR调查显示,甚至有第三方介入充当“学术掮客”。他们联系审稿人,直接贿赂换高分。
这已非简单学术不端,而是腐败犯罪。
比贿赂更可怕的是报复。
有作者利用泄露数据发现,给己论文打低分的审稿人,竟是对手实验室成员,且对方也投类似论文。
为让己方论文易中,审稿人故意给竞争对手打低分。
“恶意差评”匿名时难证实,现证据确凿——IP、名字、机构全在表里。
更极端情况出现。
ICLR官方发现,一恶意评论者用自动化脚本,在600多篇论文评论区公开点名审稿人身份。
“Reviewer1是某某大学某某。”“Reviewer2是某某公司某某。”
此行为无异网络暴力。
审稿人或因给热门论文差评,被粉丝或利益相关者“开盒”,个人信息遭挂网骚扰恐吓。
面对失控,ICLR组委会按下“核按钮”。
为止损,做出罕见“壮士断腕”决定:
冻结讨论:立即停止审稿人与作者互动。因每句话都可能带场外威胁或利诱。
全部重置:将所有论文重新分配给新领域主席(AC)。因原AC身份暴露恐难公正,必须换人。
分数回滚:将所有审稿意见和分数回滚至Bug爆发前状态。泄露期间修改分数(无论收买改高或恶意改低)作废。
极刑伺候:对利用泄露数据联系、串通或骚扰者,祭出最严惩罚——直接拒稿,并对涉事人员多学年封杀,禁投稿参会。
组合拳暂稳局面,但也致巨大混乱。
许多AC抱怨,新分配需极短时间重读几十篇论文,工作量剧增。且因无法见前讨论,有价值学术辩论被迫中断。
但ICLR别无选择。不如此,会议公信力荡然无存。
身份泄露是“外忧”,Pangram Labs报告则查“内患”。
Pangram Labs是AI文本检测公司。
混乱中,其CEO Max Spero大胆决定:利用泄露数据进行分析。
他们花一晚扫描ICLR 2026的75,800条同行评审意见。
结果让人头皮发麻——AI史上最讽刺一幕。
分析报告揭示惊人事实:
CEOMaxSpero利用泄露数据,12小时内扫描所有19,490篇投稿和75,800条评审意见,得具体统计:
21%审稿意见全AI生成
超50%审稿意见有AI痕迹
1%(199篇)投稿论文全AI生成(离谱)
9%投稿论文含大量AI内容
文章地址:https://www.pangram.com/blog/pangram-predicts-21-of-iclr-reviews-are-ai-generated?utm_source=chatgpt.com
这意味着,在代表人类AI研究最高水平的殿堂,五分之一的裁判非人。
这是AI审阅AI的荒诞剧。
作者用ChatGPT写论文。
审稿人用ChatGPT写评审。
最后OpenReview算法分发。
人类似多余“中间商”,只负责复制粘贴。
如何发现审稿人是AI?
无需检测工具,许多人类作者早觉不对劲。
报告指出,AI生成评审意见通常有以下特征:
无意义漂亮话:充满“本文结构清晰”、“极具创新性”、“虽然但是”等万金油夸赞,却说不出具体好在哪里。这常称“Flattery”(阿谀奉承),是LLM通病。
幻觉引用:AI一本正经让你引用某论文,给作者、年份甚至页码。但Google Scholar一搜,查无此文。纯属AI胡说八道。
车轱辘话:将摘要内容换说法重复,无深度洞察。
奇怪详细程度:如对无关紧要标点错误长篇大论批评,却对核心算法逻辑漏洞视而不见。
离谱建议:有时AI建议比较风马牛不相及算法,仅因训练数据见过两词同现。
哥本哈根大学教授Desmond Elliott分享经历:学生收到一条完全离题、充满事实错误的评审意见。学生疑AI生成,一查果是全AI生成。
最讽刺的是,这条AI生成评论给了“Borderline”(模棱两可)分数。此分数最恶心人,因既不拒也不接,却极大消耗AC注意力。
这不仅是道德问题,更是系统性崩溃结果。
看数据:
ICLR2024收约7,000篇投稿。
ICLR2025收11,000篇。
至ICLR 2026,数字飙至19,490篇。
近指数级增长!
但合格审稿人(通常博士高年级、博后、教授)数量未指数增。
如果你是博士生,需写论文、做实验、面临毕业压力。突然,导师扔5篇ICLR论文让你审,或系统分配8篇论文要求两周看完。
你怎么办?
在“不发表就出局”高压下,审稿成无报酬、耗精力的“苦差事”。
此时,ChatGPT像魔鬼诱惑。
丢PDF入,输入Prompt:“请写不少于500字评审意见,语气专业,指3缺点。”几秒,任务完成。
这解释21%数字的真实性。它反映非个体懒惰,而是整个同行评审系统在AI论文爆炸时代的产能过剩与算力不足。
我们生产论文速度,远超阅读评估速度。
泄密事件还证实另一阴暗面:学术圈子文化与共谋网络。
事件中,人们发现不少相互打高分小圈子。
学术界称“Reviewer Rings”(审稿人圈子)或“Citation Cartels”(引文卡特尔)。
简言之,一群人结盟。
“我是审稿人A,你是审稿人B。见圈子论文,不管怎样,一律给高分。见竞争对手,一律找茬拒掉。”
更隐蔽操作:
“我给你过稿,但意见里要求你引我写的5篇论文。”
这直接导致学术评价体系崩坏。因论文引用量和发表量是衡量学者核心指标。
通过此手段,一群平庸研究者可人为制造“学术明星”。他们无需做一流研究,只需一流“盟友”。
此非AI圈独有问题,也非首次爆发。学术界对此“抱团”行为的斗争从未停。
SIGARCH事件:计算机体系结构领域曾爆“引文卡特尔”丑闻。调查发现,某些大牛教授用影响力,要求所有审稿人必须引其文章,否则拒稿。这致特定小圈子引用数呈非自然爆炸增。ACM后来彻查处理涉事人员。
CVPR抱团:计算机视觉顶会CVPR也曾爆“Collusion Rings”。一些研究者通过互相告知论文特征,或在投稿前交换摘要,确保分配审稿人时“精准匹配”己方人。CVPR甚至为此改审稿人匹配机制,不再允作者“竞标”想审论文,或严格限制竞标权重。
但ICLR 2026泄密影响巨大,因提供铁证。
以前只能怀疑:“这论文烂,为何全满分?”
现看到:“哦,给满分三人,和作者同‘师门’。”或“这几人同国家小圈子。”
OpenReview漏洞无意充揭穿皇帝新衣的小孩。
它让我们看到,在所谓“公平、公正、双盲”学术游戏规则下,潜藏多少利益交换和人情世故。
泄密也让所有人面对尖锐问题:评审论文,究竟审的是论文,还是人?
今年8月NeurIPS审稿期间,也发生趣事。
一位审稿人意见里忘删Prompt,直接留“Who is Adam?”(亚当是谁?)这样莫名其妙话。
显然他在问AI问题,结果AI生成答案,他把问题也复制进评审意见。
当时大家当笑话看。
现随ICLR数据泄露,多人翻旧账:
“问亚当是谁的审稿人,到底是谁?”
“给我打1分的家伙,发过几篇论文?”
这种猎奇、八卦又充满愤怒无奈的心态,正让学术圈成充满猜忌的角斗场。
拓展阅读:谁是Adam?NeurIPS2025审稿爆年度最大笑话!Hinton也曾被拒稿
参考资料:
https://www.reddit.com/r/MachineLearning/comments/1p85vs0/d_openreview_all_information_leaks/
https://news.slashdot.org/story/25/11/28/139247/major-ai-conference-flooded-with-peer-reviews-written-fully-by-ai
https://forum.cspaper.org/topic/191/iclr-i-can-locate-reviewer-how-an-api-bug-turned-blind-review-into-a-data-apocalypse
https://www.chosun.com/english/industry-en/2025/11/28/GF5ZVDQ7Z5DYDL2XOD4TFDCDMI/
本文由主机测评网于2026-02-04发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260222692.html