Arm 发布首款自研数据中心AI推理芯片 AGI CPU,Meta 成为首个客户

Arm发布首款自研AI芯片Arm AGI CPU,与Meta合作,专为数据中心推理设计,提升AI系统效率。这对CPU提出了全新要求,加速AI驱动服务落地。

原文标题:35 年只卖设计,今天亲自下场造芯!Arm 首款自研芯片发布,Meta 抢下首单

原文作者:AI前线

冷月清谈:

Arm打破了过去35年只做芯片设计的传统,首次推出自研的Arm AGI CPU,进军AI数据中心推理市场。这款芯片基于Arm Neoverse系列CPU IP内核,并与Meta合作开发,旨在与Meta的AI训练及推理加速器协同工作。Arm强调,随着代理式AI的兴起,CPU在AI基础设施中的作用日益重要,需要处理大规模的分布式任务,并进行高效的协同调度。Arm AGI CPU专为高密度机架部署设计,旨在提供更高的单机架性能和内存带宽,满足现代数据中心对功耗和散热的严格要求。Meta已成为Arm AGI CPU的首位客户,其他合作方包括OpenAI、Cerebras、Cloudflare等。

怜星夜思:

1、Arm这次推出的是CPU而不是GPU,你觉得这会对AI芯片市场格局产生什么影响?他们选择CPU而非GPU的原因可能是什么?
2、文章提到Meta是Arm AGI CPU的首位客户,你认为Meta选择Arm自研芯片的原因有哪些?这对于Meta的AI战略有什么意义?
3、Arm AGI CPU强调“机架级代理式 AI 效率”,这个概念比较新颖。你认为“代理式 AI”在未来会如何发展?Arm的这种设计思路,对未来的数据中心会产生什么样的影响?

原文内容

整理 | 华卫

36 年来,半导体与软件公司 Arm 一直将芯片设计授权给英伟达、苹果等企业使用,如今终于开始自主研发并制造自有芯片。

在近日举办的发布活动上,该公司正式推出一款面向 AI 数据中心推理场景、可直接量产的处理器 Arm AGI CPU。这家英国企业基于自研 Neoverse 系列 CPU IP 内核,并与 Meta 合作完成了这款芯片的开发。

同时,Meta 也是 Arm AGI CPU 的首位客户,该芯片专为与 Meta 的 AI 训练及推理加速器协同工作而设计。Arm 的首批合作方还包括 OpenAI、Cerebras、Cloudflare 等多家科技公司。

市场对 Arm 转型自研芯片的动向早有预期。据外媒报道,该公司早在 2023 年便启动了芯片研发工作,目前相关处理器已开放订购。

尽管此举在预料之中,却标志着 Arm 历史性地打破了长期以来仅向其他芯片厂商授权设计的传统模式。这家由日本软银集团控股的公司,未来将与众多合作伙伴直接展开竞争。

Arm 选择推出 CPU 而非 GPU,这一点同样值得关注。

代理式 AI 基础设施崛起

AI 系统正日益以全球规模持续运行。在过去,人是计算环节的瓶颈——人们与系统的交互速度决定了工作推进的速度。而在代理式 AI 时代,因为软件智能体可自主协同任务、与多个模型交互,并实时做出决策,这种局限性将不复存在。

随着 AI 系统持续运行且工作负载复杂度不断提升,CPU 已成为现代基础设施中决定运行节奏的关键要素——负责保持分布式 AI 系统大规模的高效运行。在现下的 AI 数据中心中,CPU 管理数千个分布式任务,包括协调加速器、管理内存与存储、调度工作负载、跨系统迁移数据,加上当今的代理式 AI 场景兴起,CPU 还需面向海量智能体实现大规模协同调度。

这一转变对 CPU 提出了全新要求,驱动处理器架构的演进。

Arm Neoverse 现已成为当今众多领先超大规模云服务及 AI 平台的核心支撑,包括 Amazon Graviton、Google Axion、Microsoft Azure Cobalt 及 NVIDIA Vera 等。随着 AI 基础设施在全球范围内不断扩展,生态系统的合作伙伴纷纷期待 Arm 能够提供更多能力。为应对这一变革,Arm AGI CPU 应运而生。

Arm AGI CPU:

专为机架级代理式 AI 效率而生

代理式 AI 工作负载需要在大规模场景下实现持续稳定的性能输出。Arm AGI CPU 正是为此而设计,能够在数千核心并行的持续高负载下,为每个任务提供高性能表现,且满足现代数据中心功耗与散热的严格要求。

从运行频率到内存及 I/O 架构,Arm AGI CPU 的每一处设计都经过专门优化,在高密度机架部署场景下,支持大规模并行、高性能的代理式 AI 工作负载。

Arm 的参考服务器采用 1OU 双节点设计,每台刀片服务器中集成两颗 CPU 芯片,并配备独立内存与 I/O,共计 272 个核心。这些刀片服务器可在标准风冷 36 千瓦 (kW) 机架中满配部署,30 台刀片服务器可提供总计 8160 个核心。此外,Arm 还与 Supermicro 合作推出 200 千瓦 (kW) 液冷设计方案,可容纳 336 颗 Arm AGI CPU,提供超过 45000 个核心。

在该配置下,凭借 Arm 架构的根本优势,以及系统资源与计算能力的精准匹配,Arm AGI CPU 可实现单机架性能达到最新 x86 系统的两倍以上:

  • Arm AGI CPU 具备业界领先的内存带宽,使每个机架能够支持更多高效执行的线程;相比之下,x86 CPU 在持续高负载下会因核心争抢资源而导致性能下降;
  • 高性能、高能效的单线程 Arm Neoverse V3 处理器 核心性能出众,优于传统架构——每个 Arm 线程可处理更多任务;
  • 更多可用线程与更高单线程处理能力相互叠加,最终实现单机架性能的大幅提升。

Arm AGI CPU 已获得合作伙伴的认可,这些合作伙伴均处于代理式 AI 基础设施规模化部署的前沿领域。计划部署场景涵盖加速器管理、代理式 AI 协同调度,以及支撑代理式 AI 任务规模化扩展所需的服务、应用与工具的高密度部署,同时还包括为 AI 数据中心提供更强的网络与数据面计算能力。

Meta 作为 Arm AGI CPU 的早期合作伙伴与客户,参与该 CPU 的联合开发,旨在为 Meta 全系应用优化吉瓦级规模基础设施,并与 Meta 自研的 MTIA 加速器协同运行。其他首发合作伙伴包括 Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP 及 SK 电讯——这些企业均与 Arm 合作部署 Arm AGI CPU,以加速云、网络及企业环境中的 AI 驱动型服务落地。目前,永擎电子、联想及 Supermicro 已开放商用系统订购。

为进一步加速产品采用,Arm 推出 Arm AGI CPU 1OU 双节点参考服务器,该服务器采用符合开放计算项目 (Open Compute Project,OCP) 的 DC-MHS 标准规格设计。Arm 计划向社区贡献该参考服务器设计方案及配套固件,并进一步提供包括系统架构规范、调试框架及适用于所有 Arm 架构系统的诊断与验证工具等资源。

图形处理器(GPU)因承担 AI 模型训练与运行任务而备受瞩目,而 CPU 在数据中心机架中同样扮演着不可或缺的关键角色。Arm 在主推这款 CPU 时强调,此类芯片负责处理成千上万项分布式任务,包括内存与存储管理、任务调度、系统间数据传输等。该公司表示,CPU 已成为“现代基础设施的节奏核心,保障分布式 AI 系统实现高效规模化运行”。

Arm 指出,这一趋势对 CPU 提出了全新要求,也推动处理器必须迭代升级。

与此同时,全球 CPU 供应也日趋紧张。据外媒此前报道,今年 3 月,英特尔与 AMD 均告知中国客户,受 CPU 短缺影响,产品交付周期将进一步延长。随着短缺状况加剧,电脑产品价格也已开始上涨。

参考链接:

https://techcrunch.com/2026/03/24/arm-is-releasing-its-first-in-house-chip-in-its-35-year-history/

会议推荐

OpenClaw 出圈,“养虾”潮狂热,开年 Agentic AI 这把火烧得不可谓不旺。在这一热潮下,自托管 Agent 形态迅速普及:多入口对话、持久记忆、Skills 工具链带来强大生产力。但这背后也暴露了工程化落地的真实难题——权限边界与隔离运行、Skills 供应链安全、可观测与可追溯、记忆分层与跨场景污染、以及如何把 Agent 纳入团队研发 / 运维流程并形成稳定收益。

针对这一系列挑战,在 4 月 16-18 日即将举办的 QCon 北京站上,我们特别策划了「OpenClaw 生态实践」专题,将聚焦一线实践与踩坑复盘,分享企业如何构建私有 Skills、制定安全护栏、搭建审计与回放机制、建立质量 / 效率指标体系,最终把自托管 Agent 从可用的 Demo 升级为可靠的生产系统。

今日荐文

图片
你也「在看」吗?👇

Agentic AI 现在很火,但实际落地还有很多问题。Arm 这个“机架级代理式 AI 效率”,我觉得是个很好的切入点。先把基础设施搞好,让Agent跑得更稳、更快,才能真正推动Agentic AI的发展。数据中心肯定会朝着更高效、更集约的方向发展,Arm 提供的方案,可能会成为一个重要的参考。

代理式AI的关键在于智能体之间的协同。如果每个智能体都需要强大的算力支持,那么对CPU的需求就会很高。Arm的AGI CPU针对这种需求做了优化,提高了单线程性能和内存带宽,这对于提升整个数据中心的效率至关重要。可以预见,未来的数据中心会更加注重整体的能效比和资源利用率。

利益至上!Meta 肯定算过一笔账,长期来看,用Arm的自研芯片更划算。而且,和Arm合作开发,Meta也能更深入地参与到芯片的设计过程中,为自己的AI应用定制优化。至于战略意义嘛,摆脱对单一供应商的依赖,增强议价能力,这才是王道!

代理式AI是未来,这个方向没跑了。以后AI就像一个个智能代理,帮你处理各种任务,协同工作。Arm强调机架级效率,说明他们考虑的是大规模部署场景下的性能和能耗问题。如果Arm的芯片能做到更高密度、更低功耗,那肯定会对数据中心的设计产生影响,比如采用更先进的散热技术,更紧凑的机架布局。

Arm选择CPU而非GPU,我认为这是很明智的。虽然GPU在AI训练方面有优势,但CPU在通用计算和任务调度方面更擅长,尤其是在数据中心,CPU负责协调各种资源。Arm可能是看到了AI应用落地过程中CPU的重要性,想抢占这块市场。这会对英特尔和AMD造成压力,毕竟Arm的能耗比一直很有优势。

从AI应用的角度看,训练靠GPU,推理更依赖CPU。Arm的CPU在能效比上一向不错,现在入局,可能是看中了AI推理市场对高性能、低功耗CPU的需求。这对现有市场格局肯定有影响,但具体影响多大,还得看Arm后续的芯片性能和市场策略。

谢邀,个人认为Arm的这个举动更多的是补齐自己的生态短板。过去Arm主要靠授权IP,在AI大潮下,光有设计图纸不够,还得有自己的拳头产品。选择CPU是扬长避短,毕竟GPU市场竞争太激烈了,而且需要长时间的技术积累。但长期来看,Arm肯定不会只满足于CPU,GPU也是迟早要涉足的。

Meta选择Arm的芯片,我觉得主要是出于定制化和降低成本的考虑。自己参与设计,就能更好地满足自身AI应用的需求,避免被英伟达等厂商卡脖子。而且大规模部署的话,定制芯片的长期成本可能会更低。这对于Meta的AI战略来说意义重大,可以提升其在AI领域的自主可控能力。

从技术角度看,Meta可能需要一款更适合其特定AI工作负载的CPU。Arm AGI CPU强调了代理式AI的效率,这可能正好契合Meta在AI应用上的需求。另一方面,这也体现了Meta在算力上的野心,不满足于只用别人的芯片,而是要打造自己的AI基础设施,掌握核心技术。