ICLR 2026 放榜:录取率28%,审稿风波引关注

ICLR 2026放榜,录取率28%。但审稿过程出现争议,引发对AI滥用的讨论。

原文标题:ICLR 2026 放榜了!28%接收率,欢迎投稿机器之心

原文作者:机器之心

冷月清谈:

ICLR 2026会议放榜,录取率约为28%。大量研究者在社交平台分享了录取结果,几家欢喜几家愁。但本届ICLR也出现了一些争议,包括审稿意见的系统性统计问题和AI生成内容检测发现的论文引用幻觉问题。更离谱的是,有审稿人给出了基于不存在的方法名的负面评价,领域主席竟然采信,最终导致拒稿。此外,还有评审全部给出了较高分数,但依然被拒稿的情况。这些问题引发了人们对于LLM在同行评审中滥用的担忧。文章最后鼓励被录取的作者投稿机器之心。

怜星夜思:

1、你觉得今年ICLR 2026的审稿风波,对未来的学术会议评审流程会产生什么影响?
2、如果你的论文也被ICLR 2026拒稿了,你会怎么做?
3、除了审稿问题,你认为机器学习顶会还有哪些方面需要改进?

原文内容

图片
机器之心编辑部


昨晚深夜,ICLR 2026 官方正式向投稿者发送了今年的论文接收结果通知。


作为机器学习领域的顶级会议, ICLR 2026 将于 2026 年 4 月 23 日至 27 日在巴西里约热内卢举行。官方今年收到了有效投稿约 19000 篇,总录取率约为 28%,该录取率涵盖了所有经过同行评审的完整论文投稿,无论其是否撤稿。


网友晒出成绩单


录用通知一出来,网友们也坐不住了。社交平台上,很快被各种成绩单刷屏:



有的研究者不止一篇被录取:



甚至还有实验室在这一届一口气拿下 8 篇论文。截图一放出来,评论区立刻炸开了锅,清一色的都是羡慕与感叹。



被拒稿,可能不是论文的问题


今年的 ICLR 可以说是「史上最乱」的一届,先是第三方机构对审稿意见的系统性统计发现,其中有 ;后有,波及到了 ICLR 2026 超过 10000 篇投稿;接着 AI 生成内容检测平台 ,发现其中有 50 篇在论文引用上至少包含一处明显的幻觉内容。


然而,这场闹剧并未结束。


研究者 Eldar Kurtić 公开展示了一段离谱的审稿意见:一名审稿人在反馈意见中表示该论文「缺少与 FlexPrune 的具体比较」。不过 Kurtić 调查发现,似乎并不存在名为 FlexPrune 的主流基准方法。



更离谱的是,领域主席在随后的裁定中,直接采信了这一错误意见,并将其定性为论文的「致命缺陷」,最终以此为由做出拒稿决定。


该贴发布后迅速走红,目前已获得数万次浏览及大量研究者的共鸣,矛头直指 LLM 在同行评审中的滥用。




不少学者质疑,该审稿意见极有可能是通过 GPT 或 Grok 等 AI 工具自动生成的。由于 AI 存在「幻觉」特性,容易编造看似专业实则虚假的方法名。而 Meta-Reviewer 的疏忽,导致这种错误未能被纠正,反而成为了拒稿的定论。


这位网友则表示,在评分分别为 8 / 6 / 6 / 6、且评审意见整体偏正面的情况下,论文仍被拒稿。最让人难以接受的并不是拒稿本身,而是 Meta-Review 给出的理由。AC 无视了所有评审的一致支持,额外提出了两个新的质疑(而且这些质疑本身还存在事实性错误),并声称:所有评审意见都较为表面(尽管勉强高于评审的最低要求门槛)。



不管怎样,拒稿并不等于否定你的研究价值,很多经典论文也曾遭遇过拒稿。


最后,也欢迎被录取的作者投稿机器之心,让更多人看到你们的研究。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

以我的经验,大部分情况下我会选择默默接受。学术圈嘛,被拒稿很正常。我会认真总结经验教训,看看是不是研究方向不太热门,或者表达方式不够清晰。下次投稿前,多找几个同行大佬帮忙看看,争取一次过!

遇到这种情况,心态真的很重要!我会先冷静下来,仔细分析评审意见和AC的理由,看看是否存在误解或者可以改进的地方。如果觉得确实有道理,那就好好修改,争取下次再战。如果觉得AC的理由站不住脚,我会考虑申诉,为自己的论文争取一下。

这事儿闹这么大,估计以后会议组织者得更重视审稿人的筛选和培训了,尤其是要警惕AI审稿带来的风险。可能还会引入更严格的复审机制,避免因为个别审稿人的偏见或者AI幻觉导致优秀论文被埋没。

我觉得这会加速学术界对AI辅助评审的讨论和规范。以后可能会有明确的规定,比如要求审稿人在评审意见里声明是否使用了AI工具,或者对AI生成的内容进行人工审核。甚至是开发专门的工具来检测审稿意见中的’AI味’。

先冷静一下,然后仔细分析审稿意见,看看有没有可以改进的地方。如果觉得审稿意见不合理,就尝试联系领域主席申诉。如果申诉没用,那就把论文改改投其他会议呗,反正好东西不怕没人要。

顶会论文数量太多了,导致大家很难follow最新的进展。可以考虑控制论文数量,提高录取门槛,或者引入长文和短文两种形式,让大家更容易抓住重点。

我觉得顶会应该更注重论文的复现性。现在很多论文只关注结果,忽略了代码和数据的公开,导致其他人很难验证或者复现论文的结果。可以考虑引入复现性评估环节,鼓励作者公开代码和数据。

感觉现在顶会越来越卷了,大家都在追求SOTA,忽略了研究的实际应用价值。可以鼓励更多关注实际应用的研究,解决真实世界的问题,而不是只在benchmark上刷分。

默默接受,然后开始准备下一篇。学术道路漫漫,一次拒稿算什么?说不定过几年,当初拒稿的审稿人会后悔没能慧眼识珠呢(手动狗头)。

从积极的角度看,这也许会倒逼审稿流程更加透明化。例如,公开审稿意见(匿名),或者引入作者申诉机制。当然,也可能啥都没有,过几年大家就忘了。

当然是先发个朋友圈吐槽一下!然后认真反思自己的研究,看看是不是真的存在问题。如果确认没问题,那就换个角度,把论文投到更适合的期刊或者会议。拒稿是常态,心态要好!