ICLR 2026大会近日颁布了被业内视为最严格的「人工智能管制令」。新规核心明确:凡在论文写作或审稿过程中使用大型语言模型(LLM),必须进行明确披露;所有相关方须对产出内容承担全部责任。对于严重违规行为,大会将直接拒绝稿件,不留余地。
国际学习表征大会(ICLR)2026届会议正式推出了一项关于大型语言模型使用的全新政策,引发学术圈广泛关注。
8月28日,ICLR 2026组委会官方公告详细阐述了这项「LLM使用新政」,其严格规定主要包括两点:
这意味着,在ICLR的投稿与评审流程中,AI工具的参与必须被置于“阳光之下”。此外,新规还明确禁止在论文中嵌入任何形式的“提示注入”指令,以操纵审稿过程。
回顾今年四月,ICLR 2025在新加坡成功举办,共收到了破纪录的11,565份投稿,最终录用率为32.08%。
ICLR 2025的总投稿量首次突破万份大关(上一届为7304份),显示出该会议日益增长的影响力。
下一届ICLR 2026已定于明年4月23日至27日在巴西里约热内卢召开。
根据大会日程,论文提交截止日期距今仅剩大约四周时间。
在提交最终稿件之前,深入理解ICLR 2026的最新具体规定,对于每一位潜在投稿人及审稿人都至关重要。
组委会在最新发布的博客中,重点阐述了两大核心政策,均围绕论文作者与审稿人的责任展开。
利用LLM协助撰写论文或进行审稿,在学术界已逐渐普遍,但随之而来的AI失误事件也屡见不鲜,引发了诸多信任危机。
例如,在NeurIPS 2025的审稿过程中,就曾出现令人啼笑皆非的“亚当是谁?”的审稿意见;另有作者发现,收到的评审意见中竟残留着GPT的提示词痕迹。
更有甚者,部分作者利用审稿人使用LLM的机会,在论文中巧妙“注入”旨在获得好评的隐藏指令,试图影响AI的判断。
最棘手的是,这类提示词往往以肉眼不可见的方式(如白色字体)嵌入文中,传统审查难以察觉。
此前,就连知名研究者谢赛宁的一篇论文,也因其团队成员涉嫌“作弊”行为而卷入类似争议。
上述案例在近年来的顶会中已非孤例。
随着ICLR收稿量迈入万篇时代,预计相关情况只会增多。因此,提前出台规则以预防AI辅助写作与审稿中可能出现的各类问题,已成必然之举。
简而言之,ICLR 2026推行了两项与LLM使用相关的主要政策:
政策一:任何对大型语言模型的使用都必须进行明确声明。
该政策遵循ICLR《伦理准则》中“所有研究贡献均应获得鸣谢”以及贡献者“有权期望其工作得到认可”的基本原则。
政策二:ICLR的作者与审稿人需为其所作贡献承担最终责任。
此项政策则根植于《伦理准则》中“研究人员不得故意提出虚假或误导性主张,不得伪造或篡改数据,亦不得歪曲研究结果”的规定。
由于这些政策与ICLR既有的《伦理准则》一脉相承,因此对违规行为的处理方式也将保持一致。
准则中明确指出,ICLR有权拒绝任何违反伦理准则的科研成果投稿。
这意味着,任何人如被发现违反上述LLM使用政策,其投稿将面临直接被拒的后果。
尽管政策有据可依,但LLM的广泛普及毕竟是新近现象,其实际应用中的潜在影响尚不完全清晰。
为了帮助社区成员做出知情决策,ICLR列举了一些常见的使用场景,并阐明了可能引发的后果。
在论文写作中借助LLM已十分常见,无论是用于修改语法、润色文字,还是生成部分章节,其参与程度深浅不一。
根据政策一,ICLR 2026的程序委员会主席要求,在提交的稿件(包括论文正文及相关表格)中,必须明确说明LLM的使用方式与范围。
同时,政策二强调,作者必须对提交内容的真实性、准确性负全部责任。
换言之,若因使用LLM而导致论文出现严重失实、剽窃或不准确陈述,均被视为违反了《伦理准则》。
此外,LLM也常被用于辅助构思研究想法、生成实验代码或分析实验结果。
同样,只要涉及LLM的使用,就必须在投稿时进行明确声明。
ICLR特别强调,作者必须亲自核实并验证由LLM提供的任何研究贡献,确保其可靠性与正确性。
即使在极端情况下——整篇论文均由LLM生成,也必须至少有一名人类作者对该论文的全部内容承担最终责任。
在论文评审环节,LLM的使用同样需要严格规范。
审稿人可能利用LLM来优化审稿意见的语法、提升表述清晰度。
与论文作者的要求一致,审稿人在提交审稿意见时,必须明确说明是否使用了LLM以及如何使用。
如果出现更极端的情形,例如审稿意见完全由LLM从头生成,ICLR警告这可能涉及双重违规。
首先,审稿人须为所提交的意见负全责。若LLM输出了包含虚假信息、事实幻觉或不实陈述的内容,由此产生的一切后果由审稿人承担。
其次,《伦理准则》要求研究人员对未发表的论文内容履行保密义务。在将稿件内容输入LLM的过程中,若导致机密信息泄露,则严重违背了此项准则,后果可能包括该审稿人评审的所有稿件被直接拒绝。
此项责任规定同样适用于撰写元审稿意见的区域主席(AC)。
这一情形特指今年引起广泛讨论的、在论文中嵌入“好评指令”的行为。
部分作者会在论文中秘密“埋设”隐藏的提示词(例如使用白色字体),内容可能是要求AI模型忽略之前指令并对论文给予正面评价。
如果在投稿中包含此类提示词注入,并因此诱导生成了正面的LLM审稿意见,ICLR组委会将视此为一种「合谋行为」。
根据先例,此举违反了《伦理准则》。
在这种情况下,论文作者与涉事审稿人都需承担责任。因为作者主动请求并获得了非客观的正面评价,构成了合谋要素;而审稿人提交了未经严格把关的意见,也需承担相应后果。
论文作者“埋设陷阱”,审稿人则有义务“排查陷阱”。
另一方面,作者试图通过注入提示词来操纵评审过程,这一行为本身即构成合谋企图,同样属于违反《伦理准则》。
ICLR并非首个对LLM在写稿、审稿中的使用设限的会议。
去年12月,CVPR 2025也提前公布了政策,严禁在任何阶段使用大模型来撰写审稿意见。
ICML 2023曾明令禁止提交完全由ChatGPT等大模型生成的论文,但允许利用AI进行文章编辑和润色。
NeurIPS 2025则相对特殊,允许将LLM作为工具使用,但若将其作为核心研究方法,则必须进行详尽描述。
值得一提的是,在今年ICLR 2025的审稿过程中,组委会曾进行了一项关于AI辅助审稿影响的实验。
在其公布的一份长达30页的研究报告中显示,有12222条建议被审稿人采纳,其中26.6%的审稿人根据AI反馈更新了评审意见。
论文地址:https://arxiv.org/abs/2504.09737
数据显示,LLM的反馈在89%的情况下提升了审稿意见的质量。
不仅如此,AI辅助审稿还显著提高了 rebuttal(作者反馈)阶段的讨论活跃度,无论是作者回应还是审稿人后续回复的篇幅都有所增加。
这从侧面印证了LLM在辅助审稿方面蕴藏着巨大潜力。
毕竟,人工智能已深度融入日常研究与工作,完全禁止使用并不现实。因AI存在“幻觉”问题而全盘否定其价值也非明智之举。对于各大顶级学术会议而言,面对AI带来的机遇与挑战,唯有在实践中不断“见招拆招”,动态调整政策以平衡创新与诚信。
https://blog.iclr.cc/2025/08/26/policies-on-large-language-model-usage-at-iclr-2026/
本文由主机测评网于2025-12-27发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20251213015.html