谷歌发布Ironwood TPU:性能超强算24倍,并推出智能体协作协议A2A

谷歌发布Ironwood TPU,算力超强算24倍,专为AI推理设计,并推出智能体协作协议A2A,推动AI应用从单点问答转向智能体协同。

原文标题:42.5 Exaflops:谷歌新TPU性能超越最强超算24倍,智能体协作协议A2A出炉

原文作者:机器之心

冷月清谈:

谷歌发布了第七代张量处理单元(TPU)Ironwood,其AI算力在大规模部署下可达全球最快超算的24倍以上。Ironwood是第一款专为推理而设计的TPU,每pod算力高达42.5 exaflops。单芯片规格上,Ironwood配备192GB HBM,内存带宽7.2 terabits/s。谷歌将其定位为Gemini 2.5等AI模型的基础设施,并推出了智能体协作协议A2A,旨在促进不同AI智能体之间的安全通信。

怜星夜思:

1、Ironwood TPU的推出,对AI模型的发展方向会产生什么影响?是会继续促进大模型发展,还是会更侧重于模型效率和推理能力?
2、谷歌提出的A2A协议,旨在促进智能体之间的协作。你认为这种智能体协作的模式,未来会在哪些领域发挥重要作用?它又可能带来哪些潜在风险?
3、谷歌同时拥抱MCP和A2A协议,这反映了什么样的行业趋势?未来的AI生态会朝着哪个方向发展?

原文内容

机器之心报道

编辑:泽南、+0

第七代 TPU 来了。


AI 算力又迎来了新的标杆。


本周三,谷歌正式发布了旗下第七代张量处理单元(TPU)Ironwood。谷歌称,在大规模部署的情况下,这款 AI 加速器的计算能力能达到全球最快超级计算机的 24 倍以上。


这款在 Google Cloud Next '25 大会上发布的新芯片代表着谷歌十年来 AI 芯片研发战略的重大转折:谷歌自研的前几代 TPU 主要面向 AI 的训练和推理工作负载,而 Ironwood 是第一款专为推理而设计的芯片。



谷歌副总裁兼机器学习、系统和云 AI 总经理 Amin Vahdat 表示:「Ironwood 旨在支持生成式 AI 的下一阶段及其巨大的计算和通信需求。这就是我们所说的『推理时代』,AI 代理将主动检索和生成数据,以协作方式提供洞察和答案,而不仅仅是数据。」


突破壁垒,最大 42.5 exaflops 算力


Ironwood 拥有超模的技术规格,当每个 pod 扩展至 9216 块芯片时,它可提供 42.5 exaflops 的 AI 算力,远超目前全球最快的超级计算机 El Capitan 的 1.7 exaflops。每块 Ironwood 芯片的峰值计算能力可达 4614 TFLOPs。


在单芯片规格上,Ironwood 显著提升了内存和带宽,每块芯片配备 192GB 高带宽内存(HBM),是去年发布的上一代 TPU Trillium 的六倍。每块芯片的内存带宽达到 7.2 terabits/s,是 Trillium 的 4.5 倍。



在数据中心规模扩大,供电逐渐成为瓶颈的时代,Ironwood 也大幅提升了计算效率,其每瓦性能是 Trillium 的两倍,和 2018 年推出的首款 TPU 相比高出近 30 倍。


对于推理的优化代表了 AI 发展历程中的一个重要转折点。最近几年,前沿的 AI 实验室一直专注在构建参数规模不断扩大的基础模型上。谷歌转向推理优化表明,我们正在进入一个以部署效率和推理能力为核心的新阶段。


毕竟对于 AI 参与的业务而言,模型训练的次数有限,但随着 AI 技术应用逐渐铺开,推理操作每天都会发生数十亿次。由于模型日趋复杂,这些业务的经济效益与推理成本紧密相关。


谷歌在过去八年里对于 AI 计算的需求同比增长了 10 倍,总需求量高达惊人的 1 亿。如果没有像 Ironwood 这样的专用架构,任何摩尔定律的进步都无法满足这一增长曲线。


尤其值得注意的是,谷歌在发布中提到了对执行复杂推理任务而非简单模式识别的「思维模型」的关注。这表明,谷歌认为 AI 的未来不仅在于更大的模型,还在于能够分解问题、进行多步骤推理并模拟类人思维过程的模型。


面向下一代大模型


谷歌将 Ironwood 定位为其最先进 AI 模型的基础设施,其优化的大模型自然包括自家的 Gemini 2.5,它「原生内置了思维能力」。


昨天,谷歌还发布了 Gemini 2.5 Flash,作为最新旗舰模型的缩小版本,它「可以根据提示的复杂性调整推理深度」,定位于对响应速度敏感的日常应用。


谷歌还展示了其全套多模态生成模型,包括文本转图像、文本转视频以及新发布的文本转音乐功能 Lyria。谷歌展示 demo 介绍了如何将这些工具结合使用,为一场音乐会制作完整的宣传视频。


图片


Ironwood 只是谷歌更广泛的 AI 基础设施战略的一部分,谷歌还宣布推出 Cloud WAN,这是一项托管式广域网服务,使企业能够访问 Google 的全球规模私有网络基础设施。


Google 还在扩展其面向 AI 工作负载的软件产品,其中包括由 Google DeepMind 开发的机器学习运行时 Pathways,现在它允许客户在数百个 TPU 上扩展模型服务。


提出 A2A、支持 MCP,构建智能体协作生态


除了硬件之外,谷歌还概述了以多智能体系统为中心的 AI 愿景,发布了一个促进智能体发展的协议 ——Agent-to-Agent(A2A),旨在促进不同 AI 智能体之间的安全、标准化通信。


地址:https://google.github.io/A2A/#/


谷歌认为,2025 年将是 AI 方向转型之年,生成式 AI 的应用形式会从回答单一问题转向通过智能体系统来解决复杂问题。



A2A 协议允许跨平台、跨框架的智能体实现互操作,为它们提供了共同的「语言」和安全的通信渠道。这一协议可视为智能体的网络层,其目标是简化复杂工作流程中的智能体协作,使专业 AI 智能体能够协同完成各种复杂度和时长的任务,从而通过协作提升整体能力。


A2A 的工作原理


谷歌在博客中对 MCP 和 A2A 两种协议进行了比较。


MCP(模型上下文协议,Model Context Protocol)用于工具和资源管理


  • 通过结构化的输入 / 输出将智能体连接到工具、API 接口和资源

  • Google ADK 支持 MCP 工具,使得各类 MCP 服务器能够与智能体配合使用


A2A(智能体间协议,Agent2Agent Protocol)用于智能体之间的协作


  • 在不共享内存、资源和工具的情况下,实现智能体之间的动态多模态通信

  • 由社区驱动的开放标准

  • 可使用 Google ADK、LangGraph、Crew.AI 等工具查看示例


总的来说,A2A 与 MCP 是互补的:MCP 可以为智能体提供工具支持,而 A2A 则让这些装备了工具的智能体能够相互对话和协作。


从谷歌公布的合作伙伴阵容来看,A2A 似乎有望获得类似 MCP 的关注度。该计划已吸引超过 50 家企业加入首批合作阵营,包括领先科技企业以及全球顶级咨询和系统集成服务商。



谷歌强调了该协议的开放性,将其作为智能体相互协作的标准方式,不受底层技术框架或服务供应商的限制。谷歌表示,在与合作伙伴设计协议时,坚持了以下五项关键原则:


1. 拥抱智能体能力:A2A 专注于使智能体能够以其自然、非结构化的方式进行协作,即使它们不共享记忆、工具和上下文。我们正在实现真正的多智能体场景,而不将智能体限制为「工具」。

2. 基于现有标准构建:该协议建立在现有流行标准之上,包括 HTTP、SSE、JSON-RPC,这意味着它更容易与企业日常使用的现有 IT 堆栈集成。

3. 默认安全:A2A 设计为支持企业级身份验证和授权,在发布时与 OpenAPI 的身份验证方案相当。

4. 支持长时间运行的任务:我们设计 A2A 具有灵活性,支持各种场景,从快速任务到可能需要数小时甚至数天(当人类参与其中时)的深入研究。在整个过程中,A2A 可以向用户提供实时反馈、通知和状态更新。

5. 模态无关:智能体世界不仅限于文本,这就是为什么我们设计 A2A 支持各种模态,包括音频和视频流。


官方还给出了一个例子,通过 A2A 招聘流程得到显著简化。



在 Agentspace 等统一界面中,招聘经理可指派智能体依据职位需求寻找匹配人选,该智能体会与专业领域智能体互动完成候选人寻源工作。用户还可指示智能体安排面试,并启用其他专项智能体协助背景调查,从而实现跨系统协作的全流程智能化招聘。


与此同时,谷歌也在拥抱 MCP。就在 OpenAI 宣布采用竞争对手 Anthropic 的模型上下文协议(Model Context Protocol,简称 MCP)几周后,Google 也紧随其后加入了这一行列。


刚刚,Google DeepMind 首席执行官 Demis Hassabis 在 X 平台上发文宣布,Google 将在其 Gemini 模型和 SDK 中添加对 MCP 的支持。不过他并未给出具体时间表。


Hassabis 表示:「MCP 是一个优秀的协议,正在迅速成为 AI 智能体时代的开放标准。期待与 MCP 团队和业界其他伙伴一起推进这项技术的发展。」



自 2024 年 11 月发布以来,MCP 迅速走红,引发广泛关注,成为连接语言模型与工具和数据的一种简单、标准化方式。



MCP 使 AI 模型能够从企业工具和软件等数据源获取数据以完成任务,并访问内容库和应用程序开发环境。该协议允许开发者在数据源与 AI 驱动的应用程序(如聊天机器人)之间建立双向连接。


开发者可以通过 MCP 服务器开放数据接口,并构建 MCP 客户端(如应用程序和工作流)来连接这些服务器。自从 Anthropic 开源 MCP 以来,多个公司已在其平台中集成了 MCP 支持。


参考内容:

https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/

https://venturebeat.com/ai/googles-new-ironwood-chip-is-24x-more-powerful-than-the-worlds-fastest-supercomputer/

https://arstechnica.com/gadgets/2025/04/google-unveils-ironwood-its-most-powerful-ai-processor-yet/

https://virtualizationreview.com/articles/2025/04/09/protocols-for-agentic-ai-googles-new-a2a-joins-viral-mcp.aspx

https://developers.googleblog.com/zh-hans/a2a-a-new-era-of-agent-interoperability/

https://google.github.io/A2A/#/



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]


Google 这是想搞AI界的Android啊!先用开放标准把大家拉到一个平台上,然后自己再掌握核心技术和数据,哈哈。不过,这对整个行业来说是好事。竞争越激烈,技术进步就越快,最终受益的还是我们用户。

A2A感觉有点像微服务架构在AI领域的应用。每个智能体负责一部分功能,通过协作完成复杂的任务。我觉得在企业级的应用中会很有价值,比如供应链管理、金融风控等等。但是,安全问题确实值得关注。如何确保智能体之间的通信安全,防止恶意篡改,是A2A能否成功的关键。

同意楼上的看法,感觉就像是AI的“军备竞赛”告一段落,大家开始比拼“性价比”了。之前各家都在疯狂堆参数,现在发现光有“肌肉”不行,还得会“用脑子”。推理效率的提升,意味着AI可以更广泛地应用在各种场景中,比如移动设备、边缘计算等等。而且,成本也会降低,让更多的小公司和开发者也能用得起AI。

个人认为A2A协议非常有潜力。设想一下,未来的客服系统不再是单一的聊天机器人,而是由多个智能体协同工作:一个负责理解用户意图,一个负责搜索知识库,一个负责处理支付,最终给用户提供完整的解决方案。这种模式可以极大地提高效率和服务质量。

不过,潜在风险也不容忽视。例如,智能体之间可能出现信息不对称或者利益冲突,导致决策失误。此外,如果恶意攻击者控制了某个智能体,可能会利用A2A协议进行更大规模的攻击。

我觉得两方面都会有影响。一方面,Ironwood 这种专为推理优化的芯片,肯定会加速大模型落地,让更多应用成为可能。另一方面,它也会刺激新的模型架构设计,比如现在流行的 MoE(Mixture of Experts),可以在保证性能的同时,显著提升效率。所以,未来大模型不仅会更大,也会更聪明、更高效。

楼上说的安全问题确实很重要,感觉有点像科幻电影里的情节了。如果智能体之间产生了“阴谋”,人类可能很难察觉。哈哈,开个玩笑。不过,认真来说,伦理问题也需要考虑。比如,如果多个智能体共同做出一个错误的决策,责任应该由谁承担?这些都需要提前进行规范。

同意楼上的观点。谷歌同时支持MCP和A2A,也体现了一种务实的态度。与其自己造轮子,不如拥抱现有的标准,把精力放在更有价值的创新上。未来的AI生态可能会更加多元化,各种规模的公司都可以参与进来,共同推动AI技术的发展。

提问者你好!我个人理解,Ironwood的出现表明AI界正在从单纯追求模型规模转向更加注重实际应用和效率。虽然大模型仍然重要,但如何让这些模型更高效、更经济地运行,实现更快的推理速度,将成为新的关注点。这并不意味着大模型会停止发展,而是说未来的发展会更加平衡,既要追求模型的能力,也要关注模型的效率。

从技术角度来看,这可能会推动模型压缩、量化、剪枝等技术的发展,也会促进专用硬件加速器的创新。总而言之,这是一个AI发展更加务实的阶段。

我觉得这反映了AI生态正在走向开放和标准化。之前各家公司都想搞自己的标准,结果就是互不兼容,限制了AI的普及。现在,大家逐渐意识到,开放合作才能把蛋糕做大。MCP解决了模型与工具的连接问题,A2A解决了智能体之间的协作问题,两者结合,有望构建一个更加繁荣的AI生态。

未来的AI生态可能会朝着模块化、服务化的方向发展。开发者可以像搭积木一样,使用各种AI模型、工具和服务,快速构建自己的应用。