谷歌Aletheia在FirstProof数学挑战中破纪录,AI自主解决高难度数学研究问题

谷歌AI在FirstProof数学挑战中创纪录,自主解决6道高难度数学题,AI数学研究能力显著提升。

原文标题:超越IMO金牌?谷歌创超难FirstProof数学挑战新纪录

原文作者:机器之心

冷月清谈:

谷歌DeepMind的Aletheia智能体在FirstProof数学挑战中,自主解决了10道高难度研究问题中的6道,创下该挑战赛最佳纪录。这一成果超越了去年AI在IMO测试中获得金牌的表现,标志着AI在数学研究领域的能力飞速发展。FirstProof挑战由一线数学研究者发起,旨在评估AI在陌生问题上的长期推理与结构构造能力,题目全部来自真实科研过程中的命题,且在挑战启动前从未公开证明,所有解答均在没有任何人工干预的情况下生成。Aletheia的成功在于其具备一种“自我筛选”机制,能有效避免“幻觉”答案,从而保证了结果的可靠性。尽管当前AI还无法全面承担数学研究的所有环节,但已开始在证明与验证环节发挥作用,预示着未来人类与AI在数学研究中将形成新型协作模式。研究者提出方向与核心思想,AI负责高强度的路径搜索与形式化验证,最后由人类进行理论整合与升华。

怜星夜思:

1、Aletheia在FirstProof挑战中的成功,是否意味着AI已经具备了独立进行数学研究的能力?
2、文章提到Aletheia具备“自我筛选”机制,这对于AI在数学研究中的应用有何重要意义?
3、如果未来AI真的可以独立完成数学研究,数学家这个职业会消失吗?

原文内容

图片
编辑|冷猫

去年 7 月的 IMO 数学奥林匹克竞赛中,两大人工智能公司抢夺竞赛「金牌」成绩的闹剧搞得沸沸扬扬。


当时 OpenAI 和 谷歌 同时声称取得竞赛金牌,而 OpenAI 因,遭到广泛吐槽;谷歌 DeepMind 的 Gemini 进阶模型


竞赛与真正的数学研究之间,仍然存在一道明显的分界线。


在此之后,AI 智能体飞速发展,解决数学问题的能力不再仅依靠模型的推理能力。AI 智能体已经可以开始自己做数学,不只是解题,更能够进行数学研究,而且研究的还是顶尖数学家都要挠头的问题,这意味着什么?


近日,来自谷歌 DeepMind ,由 Gemini 3 Deep Think 驱动的最新数学研究智能体 Aletheia 在首届 FirstProof 挑战中,自主解决了 10 道高难度研究问题中的 6 道,成为创下了该数学挑战赛的最佳纪录。



曾带队实现 AI IMO 金牌成绩的 DeepMind 超人类推理方向负责人 Thang Luong 表示,这一成果的分量超过去年 AI 在 IMO 测试中获得金牌的表现


相关论文《Aletheia tackles FirstProof autonomously》已发布在 arXiv,并且团队在 Github 上公开了解决 FirstProof 问题的提示词与输出结果。



  • 论文标题:Aletheia tackles FirstProof autonomously

  • 论文链接:https://arxiv.org/pdf/2602.21201

  • 提示词与输出结果:https://github.com/google-deepmind/superhuman/tree/main/aletheia


FirstProof:把 AI 放进真实的数学研究现场


FirstProof 是一项专门为评估 AI 数学研究能力而设计的实验性挑战。项目由多位活跃在不同数学分支的一线研究者发起,题目全部来自真实科研过程中的命题,被提出作为评估当前人工智能能力的测试。


这些问题挑战启动前从未公开证明,组织方提前将标准证明加密保存,以尽量排除训练数据泄露的可能。最终提交的答案,需要由领域专家人工审阅,判断其逻辑严密性与学术可接受度。评价标准接近论文审稿,而非自动判分。


这种设计刻意提高了门槛。它测试的,是 AI 在陌生问题上进行长期推理与结构构造的能力。换句话说,FirstProof 关心的,是系统是否具备参与数学研究的潜力。


这些问题于 2026 年 2 月 5 日发布,并设定了截止时间为太平洋时间 2026 年 2 月 13 日晚上 11:59 ,解决方法在截止后在互联网上发布。


这项评估本身极其困难,能够真正理解这些问题的专家屈指可数。关键的一点是:Aletheia 的所有解答均在没有任何人工干预的情况下生成,并且在 FirstProof 挑战规定的时间范围内提交。


研究团队执行整体流程


FirstProof 的第一作者确认了这一事实:



研究团队运行了两个版本的 Aletheia(两者仅在底层基础模型上有所不同),它们都由 Gemini DeepThink 提供支持。综合多数专家评审意见,这两个系统共同解决了 10 道题中的 6 道(第 2、5、7、8、9、10 题)。我们注意到,专家们对第 8 题的评估并不完全一致。


Aletheia 在 FirstProof 上的性能总结。专家评估列显示了在咨询的总专家人数中,有多少专家将解决方案评为正确。仅在 P8 上的评估不是一致的。


Aletheia 的「解题分析」


两个智能体在同样的 FirstProof 十个问题的执行结果如下所示:


在 FirstProof 的 10 道问题中,Aletheia 为其中 6 道题(P2、P5、P7、P8、P9、P10)生成了候选解答。在「best-of-2」的评估设置下,根据多数专家的评审意见,这 6 道题都被认定为在该解释框架下已正确解决。


Aletheia A 与 Aletheia B 针对相同的六道题目都生成了候选解答。单独来看,每个智能体都至少出现过一次「假阳性」(false positive),但在 best-of-2 的评估机制下,它们共同为六道题目都提供了可信的解答。这一结果相比 2025 年 12 月用于解决 Erdős 问题的 Aletheia 版本,在准确率上有明显提升。


不过,P8 的评估并非一致通过 ——7 位专家中有 5 位给出了「Correct」的评价。对于另外 4 道题(P1、P3、P4、P6),两个智能体都没有给出解答:要么明确输出「No solution found」(未找到解答),要么在时间限制内没有返回任何结果。


研究团队认为,Aletheia 具备一种「自我筛选」机制,这也是 Aletheia 的关键设计原则之一。


在将 AI 扩展为数学研究助手的过程中,可靠性才是首要瓶颈。如果智能体给出错误的「幻觉」答案,会极度浪费人类专家用于验证结果的时间与精力,与提高研究效率和自动化的目标背道而驰。


此外,解决问题的推理成本也是非常重要的指标。



在图中展示了每个候选解的推理成本,并将其表示为相对于 Erdős-1051 解答推理成本的倍数。不难发现,Aletheia 在所有问题上,推理成本都高于 Erdős-1051


尤其是 P7,其推理成本比此前观察到的规模高出一个数量级。研究者称,这一方面是因为 Generator 子智能体在生成候选解时消耗了大量计算资源,另一方面是因为需要更多轮交互才能通过 Verifier 子智能体的验证。


总结


数学研究包含多个环节:提出问题、建立框架、寻找关键结构、完成证明。当前系统显然还无法全面承担所有角色,但它已经开始在证明与验证环节发挥作用。


未来的研究场景或许会发生变化。人类研究者提出方向与核心思想,AI 负责高强度的路径搜索与形式化验证,再由人类进行理论整合与升华。这种协作模式,正在逐渐成形。


数学长期以来被视为人类理性能力的高地。如今,AI 正在这里取得实质性突破。当机器开始稳定地完成研究级证明,我们或许需要重新思考一个问题:


在未来的数学论文作者名单中,AI 会以什么身份出现?



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


如果AI真能稳定输出研究级别的证明,那数学论文的作者署名问题就真成问题了!难道要署名“某某某 & Aletheia”?署名顺序怎么排?要是AI贡献更大,人是不是得靠边站了?想想还有点科幻片的感觉。

楼上说的太复杂了,你就想象一下,Aletheia就像一个学霸,做完题还会自己检查一遍,确保万无一失。这个“自我筛选”机制,其实就是AI界的“考后检查”!

我觉得这个机制最大的启发就是,以后AI不仅要会做题,还要会“吐槽”自己做的题,看看有没有漏洞。说不定以后AI还能自己写论文,然后自己审稿,自己给自己颁奖呢!

当然,这只是我的一个脑洞,不知道以后会不会实现。

问的好!Aletheia的“自我筛选”机制确实是个亮点。我觉得这个机制的核心在于让AI具备一定的“批判性思维”,能够对自己的答案进行评估和验证。这就像人类在做研究时,会不断反思和推敲自己的结论一样。

这种机制的启示在于,我们在设计AI系统时,不能只关注模型的准确率,还要关注模型的可靠性。尤其是在一些关键领域,比如医疗、金融等,AI的错误可能会造成严重的后果。因此,我们需要引入一些机制,让AI能够对自己的判断进行评估,并给出相应的置信度。例如,可以利用多个模型进行投票,或者引入一些规则进行约束。

至于如何更好地避免“幻觉”答案,我觉得可以从以下几个方面入手:

1. 增加训练数据的多样性:让模型见过更多不同的情况,从而提高模型的泛化能力。
2. 引入知识图谱:让模型具备一定的背景知识,从而能够对答案进行合理的推断。
3. 设计可解释性强的模型:让我们可以理解模型的判断过程,从而更容易发现问题。
4. 让人类专家参与验证:在AI给出答案后,让人类专家进行审核,从而确保答案的正确性。

我觉得“自我筛选”可以理解为一种置信度评估。AI需要对自己的输出结果进行评估,只有当置信度达到一定阈值时才输出结果。这需要在训练过程中,让AI学习区分正确和错误的答案,并建立相应的置信度模型。 可以借鉴boosting算法的思想。

我持乐观态度! 虽然现在AI还不能完全自主,但它已经能在某些方面超越人类,比如高强度计算和验证。未来,随着算法和算力的提升,AI 完全有可能在数学研究中扮演更重要的角色,甚至产生颠覆性的发现! 就像AlphaFold对生物学的改变一样

如果AI能成为论文作者,那学术界的游戏规则可能要彻底改变了。比如,论文的署名权、知识产权归属、学术评价标准等等,都需要重新定义。我觉得应该积极拥抱这种变化,同时也要警惕AI可能带来的伦理问题。

我觉得不用太担心。AI 只是一个工具,即使它能写论文,也离不开人类的指导和监督。未来的学术界,可能更需要具备跨学科能力和创新思维的人才,能够将 AI 的能力与人类的智慧结合起来,共同推动科学的进步。

我觉得现在说AI能“独立”进行数学研究还为时尚早。Aletheia的成功更多在于它强大的计算和验证能力,可以作为研究者的辅助工具。但提出问题、构建框架这些更需要创造性和洞察力的工作,目前还是人类更擅长。完全自动化?估计还得过几十年吧。

这就像工业革命解放了体力劳动一样。AI可能会解放一部分脑力劳动,让我们有更多时间去探索宇宙的奥秘,思考人生的意义。数学家可能会变成哲学家、艺术家,或者干脆去享受生活,谁知道呢?

我觉得说完全独立还为时过早。虽然Aletheia能解决一些难题,但它仍然依赖于人类设定的框架和目标。更像是超级助手,能加速研究过程,但还不能完全取代人类的思考和创新。

这让我想到了“奥卡姆剃刀原则”,简单有效才是王道。与其追求AI能解决所有问题,不如让它专注于解决特定问题,并且保证结果的可靠性。这种“自我筛选”机制,正是AI在实际科研中落地的关键一步。

从纯粹解决问题的角度看,Aletheia的表现确实惊艳。但数学研究不仅仅是解题,还包括提出新的问题、构建理论体系等等。AI在这些方面还有很长的路要走,也许未来它能做到,但目前还不行。

我觉得不会完全消失,但肯定会转型。就像摄影技术出现后,画家并没有消失,而是转向了更抽象、更具情感表达的方向。数学家可能会更专注于提出新的问题、解释AI的发现,或者探索更深层次的数学思想。

“自我筛选”机制太重要了!数学最忌讳的就是错误的结论,一个错误的“突破”可能浪费大量时间和精力。Aletheia能自己判断答案的可靠性,就能大大提高研究效率,避免被错误的“幻觉”答案误导。

从工程角度来说,“自我筛选”其实就是在提高AI的“召回率”和“精确率”。如果AI给出的答案大部分都是错的,那还不如不用。有了“自我筛选”,我们才能更信任AI的输出,敢于把更多精力放在更有价值的思考上。

有没有一种可能,现在评价AI是否“独立”进行数学研究还太早?就像当年评价计算机是否能“思考”一样,标准会随着技术发展而改变。也许过几年,我们对“独立研究”的定义也会不一样了。

与其担心职业消失,不如拥抱AI带来的变革。想想看,如果AI能帮我们解决那些繁琐的计算和证明,我们就能把更多精力放在更有创造性的思考上,也许能推动数学发展到一个全新的高度!