Arm发布首款自研AI芯片Arm AGI CPU,与Meta合作,专为数据中心推理设计,提升AI系统效率。这对CPU提出了全新要求,加速AI驱动服务落地。
原文标题:35 年只卖设计,今天亲自下场造芯!Arm 首款自研芯片发布,Meta 抢下首单
原文作者:AI前线
冷月清谈:
怜星夜思:
2、文章提到Meta是Arm AGI CPU的首位客户,你认为Meta选择Arm自研芯片的原因有哪些?这对于Meta的AI战略有什么意义?
3、Arm AGI CPU强调“机架级代理式 AI 效率”,这个概念比较新颖。你认为“代理式 AI”在未来会如何发展?Arm的这种设计思路,对未来的数据中心会产生什么样的影响?
原文内容
36 年来,半导体与软件公司 Arm 一直将芯片设计授权给英伟达、苹果等企业使用,如今终于开始自主研发并制造自有芯片。
在近日举办的发布活动上,该公司正式推出一款面向 AI 数据中心推理场景、可直接量产的处理器 Arm AGI CPU。这家英国企业基于自研 Neoverse 系列 CPU IP 内核,并与 Meta 合作完成了这款芯片的开发。
同时,Meta 也是 Arm AGI CPU 的首位客户,该芯片专为与 Meta 的 AI 训练及推理加速器协同工作而设计。Arm 的首批合作方还包括 OpenAI、Cerebras、Cloudflare 等多家科技公司。
市场对 Arm 转型自研芯片的动向早有预期。据外媒报道,该公司早在 2023 年便启动了芯片研发工作,目前相关处理器已开放订购。
尽管此举在预料之中,却标志着 Arm 历史性地打破了长期以来仅向其他芯片厂商授权设计的传统模式。这家由日本软银集团控股的公司,未来将与众多合作伙伴直接展开竞争。
Arm 选择推出 CPU 而非 GPU,这一点同样值得关注。
AI 系统正日益以全球规模持续运行。在过去,人是计算环节的瓶颈——人们与系统的交互速度决定了工作推进的速度。而在代理式 AI 时代,因为软件智能体可自主协同任务、与多个模型交互,并实时做出决策,这种局限性将不复存在。
随着 AI 系统持续运行且工作负载复杂度不断提升,CPU 已成为现代基础设施中决定运行节奏的关键要素——负责保持分布式 AI 系统大规模的高效运行。在现下的 AI 数据中心中,CPU 管理数千个分布式任务,包括协调加速器、管理内存与存储、调度工作负载、跨系统迁移数据,加上当今的代理式 AI 场景兴起,CPU 还需面向海量智能体实现大规模协同调度。
这一转变对 CPU 提出了全新要求,驱动处理器架构的演进。
Arm Neoverse 现已成为当今众多领先超大规模云服务及 AI 平台的核心支撑,包括 Amazon Graviton、Google Axion、Microsoft Azure Cobalt 及 NVIDIA Vera 等。随着 AI 基础设施在全球范围内不断扩展,生态系统的合作伙伴纷纷期待 Arm 能够提供更多能力。为应对这一变革,Arm AGI CPU 应运而生。
Arm AGI CPU:
专为机架级代理式 AI 效率而生
代理式 AI 工作负载需要在大规模场景下实现持续稳定的性能输出。Arm AGI CPU 正是为此而设计,能够在数千核心并行的持续高负载下,为每个任务提供高性能表现,且满足现代数据中心功耗与散热的严格要求。
从运行频率到内存及 I/O 架构,Arm AGI CPU 的每一处设计都经过专门优化,在高密度机架部署场景下,支持大规模并行、高性能的代理式 AI 工作负载。
Arm 的参考服务器采用 1OU 双节点设计,每台刀片服务器中集成两颗 CPU 芯片,并配备独立内存与 I/O,共计 272 个核心。这些刀片服务器可在标准风冷 36 千瓦 (kW) 机架中满配部署,30 台刀片服务器可提供总计 8160 个核心。此外,Arm 还与 Supermicro 合作推出 200 千瓦 (kW) 液冷设计方案,可容纳 336 颗 Arm AGI CPU,提供超过 45000 个核心。
在该配置下,凭借 Arm 架构的根本优势,以及系统资源与计算能力的精准匹配,Arm AGI CPU 可实现单机架性能达到最新 x86 系统的两倍以上:
-
Arm AGI CPU 具备业界领先的内存带宽,使每个机架能够支持更多高效执行的线程;相比之下,x86 CPU 在持续高负载下会因核心争抢资源而导致性能下降;
-
高性能、高能效的单线程 Arm Neoverse V3 处理器 核心性能出众,优于传统架构——每个 Arm 线程可处理更多任务;
-
更多可用线程与更高单线程处理能力相互叠加,最终实现单机架性能的大幅提升。
Arm AGI CPU 已获得合作伙伴的认可,这些合作伙伴均处于代理式 AI 基础设施规模化部署的前沿领域。计划部署场景涵盖加速器管理、代理式 AI 协同调度,以及支撑代理式 AI 任务规模化扩展所需的服务、应用与工具的高密度部署,同时还包括为 AI 数据中心提供更强的网络与数据面计算能力。
Meta 作为 Arm AGI CPU 的早期合作伙伴与客户,参与该 CPU 的联合开发,旨在为 Meta 全系应用优化吉瓦级规模基础设施,并与 Meta 自研的 MTIA 加速器协同运行。其他首发合作伙伴包括 Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP 及 SK 电讯——这些企业均与 Arm 合作部署 Arm AGI CPU,以加速云、网络及企业环境中的 AI 驱动型服务落地。目前,永擎电子、联想及 Supermicro 已开放商用系统订购。
为进一步加速产品采用,Arm 推出 Arm AGI CPU 1OU 双节点参考服务器,该服务器采用符合开放计算项目 (Open Compute Project,OCP) 的 DC-MHS 标准规格设计。Arm 计划向社区贡献该参考服务器设计方案及配套固件,并进一步提供包括系统架构规范、调试框架及适用于所有 Arm 架构系统的诊断与验证工具等资源。
图形处理器(GPU)因承担 AI 模型训练与运行任务而备受瞩目,而 CPU 在数据中心机架中同样扮演着不可或缺的关键角色。Arm 在主推这款 CPU 时强调,此类芯片负责处理成千上万项分布式任务,包括内存与存储管理、任务调度、系统间数据传输等。该公司表示,CPU 已成为“现代基础设施的节奏核心,保障分布式 AI 系统实现高效规模化运行”。
Arm 指出,这一趋势对 CPU 提出了全新要求,也推动处理器必须迭代升级。
与此同时,全球 CPU 供应也日趋紧张。据外媒此前报道,今年 3 月,英特尔与 AMD 均告知中国客户,受 CPU 短缺影响,产品交付周期将进一步延长。随着短缺状况加剧,电脑产品价格也已开始上涨。
参考链接:
https://techcrunch.com/2026/03/24/arm-is-releasing-its-first-in-house-chip-in-its-35-year-history/
OpenClaw 出圈,“养虾”潮狂热,开年 Agentic AI 这把火烧得不可谓不旺。在这一热潮下,自托管 Agent 形态迅速普及:多入口对话、持久记忆、Skills 工具链带来强大生产力。但这背后也暴露了工程化落地的真实难题——权限边界与隔离运行、Skills 供应链安全、可观测与可追溯、记忆分层与跨场景污染、以及如何把 Agent 纳入团队研发 / 运维流程并形成稳定收益。
针对这一系列挑战,在 4 月 16-18 日即将举办的 QCon 北京站上,我们特别策划了「OpenClaw 生态实践」专题,将聚焦一线实践与踩坑复盘,分享企业如何构建私有 Skills、制定安全护栏、搭建审计与回放机制、建立质量 / 效率指标体系,最终把自托管 Agent 从可用的 Demo 升级为可靠的生产系统。

