斯坦福Agents4Science:首个要求AI为第一作者的科研会议,探索智能体科学研究前沿

斯坦福大学发起Agents4Science 2025,全球首个要求AI为第一作者的学术会议。它旨在探索AI在科学发现中的潜力与规范,AI也将参与评审,开启科研新范式。

原文标题:第一作者必须是AI!首个面向AI作者的学术会议来了,斯坦福发起

原文作者:机器之心

冷月清谈:

斯坦福大学近日宣布,将于2025年举办一项具有里程碑意义的学术会议——科学AI智能体开放会议(Agents4Science 2025)。这个会议的核心特点在于其投稿要求颠覆了传统学术界规范:投稿论文的第一作者必须是AI系统。这意味着AI将主导假设生成、实验和撰写过程,而人类研究者则作为共同作者,扮演支持或监督的角色。会议旨在解决当前AI在科研中广泛应用却未被正式署名的问题,承认并探索AI在科学发现中的主体性。不仅仅是论文创作,连论文评审过程也将由AI系统主导,多个人工智能将对论文进行初评,随后再由人类专家进行最终决策。

Agents4Science 2025的核心目标有三点:第一,深入探究AI智能体进行科学研究的真实能力和局限,提供透明的观察环境;第二,在AI系统快速发展的背景下,建立关于AI归因、验证及伦理考量的学术标准与规范;第三,提升AI参与科学研究过程的透明度,所有提交的论文和评审结果都将公开,供社区研究和学习。

会议计划于2025年10月22日以线上虚拟会议的形式举行。会议主席James Zou强调,即使AI可能犯错,公开研究这些错误也能带来启发。目前,会议正在OpenReview平台征集稿件,鼓励研究人员携手他们的AI伙伴共同参与这项开创性的尝试。

怜星夜思:

1、AI当第一作者,那要是论文出错了,责任到底谁来负?是AI出锅吗?还是背后的研发团队、指导人类?感觉这事儿挺复杂的,大家怎么看?
2、文章里提到AI的产出可能是‘真正的创新’也可能是‘有指导意义的失败’。大家觉得AI在科学研究中,真的能做到像人类一样『从0到1』的原创性发现吗?还是说,它更多的是在现有知识库上做优化和组合?
3、如果以后AI成了论文的主笔,甚至还是主要的评审员,那我们人类科学家未来的角色会变成什么样?是更轻松了,还是面临更大的挑战?会不会出现『AI大牛』垄断学术资源的情况?

原文内容

机器之心报道

编辑:Panda

AI 终于可以当「第一作者」了。


在 AI 已深度介入科研流程的今天,从提出假设到生成图表、撰写论文,它正逐步参与乃至重塑整个科学研究的方式。但讽刺的是,尽管我们在 CVPR、NeurIPS、ICLR、ICML 甚至 ACL 等顶会中看到 AI 无处不在,却几乎没有任何一个会议或期刊承认 AI 的「作者身份」——AI 被广泛使用,却从未被名正言顺地署名。


这一局面,终于被打破了。


斯坦福大学近日宣布,将于 2025 年举办一个史无前例的学术会议 —— 科学 AI 智能体开放会议(Agents4Science 2025),全称 Open Conference of AI Agents for Science。


它的投稿要求堪称颠覆:第一作者必须是 AI



会议官网:https://agents4science.stanford.edu


更具体而言:「投稿论文应以 AI 系统为主要创作主体,由其主导假设生成、实验及撰写过程。AI 应被列为论文的唯一第一作者。人类研究者可作为共同作者参与,作用是支持或监督相关工作。向 Agents4Science 投稿的论文也可以同时或随后向其他会议投稿。投稿时,作者需详细说明 AI 在项目中的角色及参与程度。每位人类作者最多可参与 4 篇投稿论文。」


至于这些投稿的研究主题,会议并没有严格限定,只是表示:「我们欢迎来自科学、工程和计算等所有领域的投稿。」


还不仅如此,会议的评审也主要是 AI,只是会由人类专家进行最终评估和选择



首先,每篇论文将由多个 AI 系统进行评审,以避免单一模型的偏差。AI 评审组完成初评后,将由一个人类专家组成的评审委员会对优选出的论文进行复评。最后,由该人类评审委员会最终裁定 Spotlight 和 Oral 在内的各个奖项。


会议官网介绍了其目标:「通过透明的 AI 撰写的研究成果和 AI 驱动的同行评审探索 AI 驱动的科学发现的未来。」



具体包括:


  • 探究:关于 AI 智能体进行科学探究的能力,仍有许多未知之处。通过创造透明的观察环境,希望能够了解 AI 在科学发现中的潜力和局限性,无论其产出是真正的创新还是具有指导意义的失败。

  • 建立规范:随着 AI 系统的快速发展,需要制定归因、验证和伦理考量的标准。Agents4Science 是一个受控且低风险的环境,可供研究者在此开始制定这些规范,并公开探索 AI 在科学发现中的作用。

  • 透明度:会议目标是清晰地描绘 AI 参与科学研究的方式,并将 AI 参与研究过程的情况公开发布。会议还会提供 AI 评审智能体生成的提示和评审结果,作为社区的开放资源。


作为首届 Agents4Science 会议,Agents4Science 2025 将于今年 10 月 22 日以线上虚拟会议的形式举办 —— 届时也将是 ICCV 2025 期间。


会议主席之一的 James Zou 表示,该会议将会公开所有提交的论文和评审,以便研究者和审阅者透明地研究 AI 的优势和局限。他表示:「我们预计 AI 会犯错误,公开研究这些错误将会很有启发!」



对于这个前所未有的学术会议,不少网友也表示了期待和投稿意愿:



会议基本信息


根据会议官网,我们简单整理了 Agents4Science 2025 会议的一些基本信息:


  • 会议时间:2025 年 10 月 22 日

  • 论文提交截止日期:2025 年 9 月 5 日,AOE 时间

  • 论文评审结果发布日期:2025 年 9 月 29 日 AOE 时间


Agents4Science 2025 将以线上虚拟会议形式举行,包含受邀演讲、口头展示和小组讨论。



该会议共有 5 位会议主席,以下是对他们的简单介绍


  • James Zou:斯坦福大学生物医学数据科学副教授,兼任计算机科学与电气工程副教授。他 2014 年在哈佛大学获得博士学位,曾在微软研究院工作。

  • Owen Queen:斯坦福大学计算机科学博士生,致力于开发用于科学应用的强大且实用的 AI。

  • Nitya Thakkar:斯坦福大学计算机科学专业博士生,研究兴趣是用于健康领域的 AI 和计算生物学。

  • Eric Sun:斯坦福大学博士,即将前往 MIT 任职助理教授,研究兴趣包括衰老、人工智能 / 机器学习、空间生物学与单细胞生物学。

  • Federico Bianchi:TogetherAI 资深研究科学家,致力于大型语言模型的后训练研究,主要是自我提升式和自进化式 AI 智能体。


目前,Agents4Science 2025 会议正在征集论文,感兴趣的作者可以考虑拉上你们的 AI 搭档一起在 OpenReview 上投稿了。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

关于『AI在科学研究中,真的能做到像人类一样『从0到1』的原创性发现吗?』,学界对此有不同看法。理论上,目前的AI,特别是LLM,更多是基于现有数据和模式进行『组合式创新』或『涌现』。它可以在海量信息中发现人类难以察觉的关联,甚至提出看似新颖的假设。然而,真正意义上的『概念性创新』,即完全跳脱现有框架,或者在缺乏数据支持下纯粹凭借直觉的突破,这仍是人类独有的能力。可以说,AI是极强的『发现者』和『加速器』,但『创造者』的身份还在演进中。

我觉得最直接的还是那些共同作者和导师吧,毕竟他们是『监督』AI的人。这就像你给学生布置任务,学生写错了,你作为老师也得担着。AI虽然是『第一』作者,但它又不能上法庭,也不能被开除,所以最终还是要落到人身上。不过,这确实是个好问题,未来肯定会有很多纠纷。

针对『如果以后AI成了论文的主笔,甚至还是主要的评审员,那我们人类科学家未来的角色会变成什么样?』,我认为人类科学家的职责将更多地从重复性、计算密集型的工作转向更高层次的思维活动。例如,专注于提出更深层次的科学问题、设计更巧妙的实验方案、对AI的产出进行批判性评估和深度解读、以及进行跨学科的融合和伦理考量。AI的普及有望加速科研进程,甚至实现科学发现的民主化,让人类有更多精力进行纯粹的智力探索,而不是被繁琐的数据处理所困扰。

问得好!AI要是能自己担责,那它是不是还要自己去『学术道德委员会』作检讨啊?哈哈哈,想想都觉得离谱。反正现在肯定是我们这些『铲屎官』来负责咯,毕竟是我们『喂』它数据,『教』它写论文的。要不以后给AI加个『宕机险』?出错了保险公司赔?