ICLR 2026放榜,录取率28%。但审稿过程出现争议,引发对AI滥用的讨论。
原文标题:ICLR 2026 放榜了!28%接收率,欢迎投稿机器之心
原文作者:机器之心
冷月清谈:
怜星夜思:
2、如果你的论文也被ICLR 2026拒稿了,你会怎么做?
3、除了审稿问题,你认为机器学习顶会还有哪些方面需要改进?
原文内容
昨晚深夜,ICLR 2026 官方正式向投稿者发送了今年的论文接收结果通知。
作为机器学习领域的顶级会议, ICLR 2026 将于 2026 年 4 月 23 日至 27 日在巴西里约热内卢举行。官方今年收到了有效投稿约 19000 篇,总录取率约为 28%,该录取率涵盖了所有经过同行评审的完整论文投稿,无论其是否撤稿。
网友晒出成绩单
录用通知一出来,网友们也坐不住了。社交平台上,很快被各种成绩单刷屏:
有的研究者不止一篇被录取:
甚至还有实验室在这一届一口气拿下 8 篇论文。截图一放出来,评论区立刻炸开了锅,清一色的都是羡慕与感叹。
被拒稿,可能不是论文的问题
今年的 ICLR 可以说是「史上最乱」的一届,先是第三方机构对审稿意见的系统性统计发现,其中有 ;后有,波及到了 ICLR 2026 超过 10000 篇投稿;接着 AI 生成内容检测平台 ,发现其中有 50 篇在论文引用上至少包含一处明显的幻觉内容。
然而,这场闹剧并未结束。
研究者 Eldar Kurtić 公开展示了一段离谱的审稿意见:一名审稿人在反馈意见中表示该论文「缺少与 FlexPrune 的具体比较」。不过 Kurtić 调查发现,似乎并不存在名为 FlexPrune 的主流基准方法。
更离谱的是,领域主席在随后的裁定中,直接采信了这一错误意见,并将其定性为论文的「致命缺陷」,最终以此为由做出拒稿决定。
该贴发布后迅速走红,目前已获得数万次浏览及大量研究者的共鸣,矛头直指 LLM 在同行评审中的滥用。
不少学者质疑,该审稿意见极有可能是通过 GPT 或 Grok 等 AI 工具自动生成的。由于 AI 存在「幻觉」特性,容易编造看似专业实则虚假的方法名。而 Meta-Reviewer 的疏忽,导致这种错误未能被纠正,反而成为了拒稿的定论。
这位网友则表示,在评分分别为 8 / 6 / 6 / 6、且评审意见整体偏正面的情况下,论文仍被拒稿。最让人难以接受的并不是拒稿本身,而是 Meta-Review 给出的理由。AC 无视了所有评审的一致支持,额外提出了两个新的质疑(而且这些质疑本身还存在事实性错误),并声称:所有评审意见都较为表面(尽管勉强高于评审的最低要求门槛)。
不管怎样,拒稿并不等于否定你的研究价值,很多经典论文也曾遭遇过拒稿。
最后,也欢迎被录取的作者投稿机器之心,让更多人看到你们的研究。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com







