Anthropic 首席科学家:AGI 或许比预期更早到来

Anthropic 首席科学家 Jared Kaplan 认为 AGI 或在 2027 年左右实现,他对 AI 模型的“视界”扩展进行了阐述,认为AGI的到来可能比预期更早。

原文标题:Anthropic 首席科学家的 AI「视界」如何判别 AGI 进程?

原文作者:机器之心

冷月清谈:

Anthropic 联创兼首席科学家 Jared Kaplan 近期在一场访谈中分享了他对 AI 发展的最新观点,他认为 AGI 可能在未来两到三年内实现,即 2027 年左右。Kaplan 还在访谈中分享了他对 AI 模型的「视界」扩展,Scaling Law 的有效性与制约、模型能力进步的周期以及国际竞争格局下企业所面临的挑战,以及 Anthropic 在这些发展趋势下的理念与规划。Kaplan将 AI 能够理解和处理的时间跨度的能力描述为「视界」(Horizon)。这种能力的增长既涉及模型智能在通常意义上的提升,也与上下文长度的增加有关,还需要通过强化学习训练 AI 完成更复杂的任务。DeepMind 创始人 Demis Hassabis 认为 AGI 将在 2030 年到来。

怜星夜思:

1、Kaplan 提到 DeepSeek 的发展速度很快,并认为中国 AI 技术可能落后美国六个月。你认为这种差距在未来会如何演变?中国在哪些 AI 领域更有潜力赶超?
2、Kaplan 提出了 AI 的“视界”概念,即 AI 能够理解和处理的时间跨度。你认为除了上下文长度,还有哪些因素会影响 AI 的“视界”?
3、文章中提到 DeepMind 和 Anthropic 对 AGI 的到来时间节点有 2-3 年的差距。你认为这种预测上的差异反映了什么? 是技术路线的不同,还是对 AGI 标准的理解不同?

原文内容

本文来自PRO会员通讯内容,文末关注「机器之心PRO会员」,查看更多专题解读。

Anthropic 联创兼首席科学家 Jared Kaplan 在一场 AGI 主题的访谈中用 AI「视界」衡量了模型的能力,以及在此趋势下对「人类水平 AI 的加速时间表」的新观点,并在话题下分享了 Anthropic 的立场和相关规划。

目录

01. Jared Kaplan 对 AI 发展轨迹怎么看?

Jared Kaplan在访谈中如何刷新对AGI的判断?Anthropic一直在关注 DeepSeek?...

02. AI「视界」下,AGI 的加速时间表可以如何辨析?
Anthropic和DeepMind等团队如何定义AGI?什么是 AI「视界」?AI「视界」正在如何快速进步?...
03. AI 的能力正在以什么节奏加速迭代?
Kaplan 对 Scaling Law 为何仍保持乐观?...
04. Anthropic 和 DeepMind 对 AI 生态系统与未来风险的看法有何差别?
什么是生态系统视角带来的风险考量?DeepMind认为AGI的四大风险是什么?...

01  Jared Kaplan 对 AI 发展轨迹怎么看?

1、Anthropic 联创兼首席科学家 Jared Kaplan 在 4 月 2 日的一场访谈中分享了他对 AI 发展的观点,认为 AGI 可能在未来两到三年内实现,即 2027 年左右。

① 有别于 Anthropic 的 CEO Dario Amodei,Jared Kaplan 接受采访的频率相对较低。

② 2025 年 1 月,Jared Kaplan 曾在和 MIT TechReview 的访谈中分享了 AI 智能体在 2025 年可能发展的四个方向。他近期在 4 月 2 日和科技评论家 Azeem Azhar 的访谈中则分享了对 AI 发展的最新观点,特别强调了人类水平 AI(AGI)可能比预期更早到来的判断。

2、该场访谈中,Kaplan 还分享了他对 AI 模型的「视界」扩展,Scaling Law 的有效性与制约、模型能力进步的周期以及国际竞争格局下企业所面临的挑战,以及 Anthropic 在这些发展趋势下的理念与规划。

① Kaplan 在访谈中同样谈及了对 DeepSeek 的看法。在他看来,DeepSeek 的成就并不让人惊讶,而通过观察 DeepSeek 论文的进展,Kaplan 认为中国在 AI 技术上可能落后美国六个月,不会太远。

② 在有关「DeepSeek 能否超越美国前沿模型」的话题中,Kaplan 表示当前研究突破的节奏极快,但不是因为科学家突然变聪明,而是因为人们发现很多研究领域的低垂果实(low hanging fruit)。他认为有太多低垂果实需要收集,以至于谁先找到哪些进展是不可预测的。

3、除了 Jared Kaplan 在近期分享了对 AGI 的看法,谷歌 DeepMind 团队同样在 4 月 2 日发布的《技术 AGI 安全性和保障方法》中判断了 AGI 的来临时间。

① 此外,2025 年 2 月,DeepMind 的创始人 Demis Hassabis 与 Anthropic 的创始人 Dario Amodei 在与《经济学人》得访谈中也分享过各自对 AGI 的判断。但该场访谈仅 15 分钟,双方更多分享的是各自对于 AGI 的争议与挑战。


02  AI「视界」下,AGI 的加速时间表可以如何辨析?

1、Anthropic 和谷歌 DeepMind 近期均在不同渠道阐述了各自对「AGI 的加速时间表」的判断,以及对 AGI 或人类水平 AI 所应具备特征的理解。两个团队对 AGI 来临节点的判断约有 2-3 年的差距,但都不远。

2、Anthropic 的两位联创在前后的访谈中均表示 AGI 将在 2026 至 2028 年之间实现。

① 此前,Jared Kaplan 曾在 2024 年预测 AGI 的来临时间会在 2030 年,但他在近期的访谈中特别强调了人类水平 AI 的可能比预期更早到来,认为这一里程碑会在 2027 年左右达成。

3、Kaplan 在访谈中强调了 「人类水平 AI」这一概念的模糊性,并阐述了可以评估 AI 的两个关键维度,分别是「AI 能够在哪些环境中运作」和「AI 能处理多复杂的任务」[2-1] 

① 从 AI 可运作环境的维度出发,Kaplan 表示目前的 AI 已经从大语言模型发展到多模态模型,AI 互动的环境在不断扩张,而未来人们想想的科幻场景是 AI 能够以机器人的形式在现实世界中行动。

② 在 AI 能完成任务的复杂度方面,表示 AI 从前整处理几秒钟的任务,而后朝着处理几分钟、几小时甚至更长时间跨度的任务发展,且一直在往前推进。

③ Kaplan 进而将 AI 能够理解和处理的时间跨度的能力描述为「视界」(Horizon)。这种能力的增长既涉及模型智能在通常意义上的提升,如关注不同问题,了解更多事物;其次需要上下文长度的增加;进而需要通过强化学习训练 AI 完成更复杂的任务。

④ 他用 Claude 系列的进展解释了「视界」的扩展,其最明显的体现是 Claude Code 这一产品能够「搜索代码库、跨不同功能进行修改,甚至迭代测试代码本身」。

4、DeepMind 创始人 Demis Hassabis 在 2025 年 2 月(和 Dario Amodei 一起)的座谈会中表示 AGI 将在 2030 年到来,其团队后在 4 月 2 日发布《An Approach to Technical AGI Safety and Security》,讨论了如何监控 AGI 进展,并确保其安全且负责任地发展...


 关注👇🏻「机器之心PRO会员」,前往「收件箱」查看完整解读 

更多往期专题解读内容,关注「机器之心PRO会员」服务号,点击菜单栏「收件箱」查看。


我认为也可能是因为他们掌握的信息不对称。DeepMind 和 Anthropic 都在 AI 领域的最前沿,但各自的研究方向和数据积累不同,这自然会影响他们的判断。

我觉得除了上下文长度,AI 的“视界”还受到其知识储备、推理能力和问题解决能力的影响。一个拥有更广阔知识面、更强推理能力和解决问题能力的 AI,才能更好地理解和处理复杂任务,从而扩展其“视界”。

从工程角度来看,训练数据质量和模型架构设计也很重要。高质量的数据能让 AI 更好地学习,而优秀的模型架构能提升 AI 的信息处理效率,最终影响其“视界”。

同意楼上的看法,AI 的发展不仅仅取决于技术。国内在算力资源上还需要继续投资和完善,同时需要避免低水平重复建设,把资源投入到更有潜力的方向上。

这种预测上的差异,我觉得主要是因为他们对 AGI 的定义和标准不同。AGI 本身就是一个很模糊的概念,不同团队可能有不同的理解。此外,不同的技术路线和发展策略也会导致预测上的差异。

谢邀,人在美国,刚下飞机。Kaplan 的观点可能是基于现有论文发表和模型性能的评估。但 AI 发展不仅仅是技术,还有投资、政策和市场。中国市场潜力巨大,说不定哪天就弯道超车了!

与其争论谁的预测更准确,不如关注这两家公司在 AGI 安全性和伦理方面的研究。毕竟,AGI 的强大能力也可能带来巨大的风险,我们需要提前做好准备。

我寻思着,这“视界”是不是可以理解成AI的“格局”?格局大了,才能看得远,才能处理更复杂的问题嘛!玩笑归玩笑,AI 的长期规划和战略能力确实影响着它能处理的任务复杂度。

我个人认为六个月的差距并不大,考虑到AI领域日新月异的发展速度,也许几个月后情况就完全不同了。中国在数据积累和应用场景方面有优势,如果能在算法创新和人才培养上加大投入,赶超并非不可能。