国产TPU智算中心建设详解:TPU芯片和算力调度的关键作用

原文标题:广东首个国产TPU智算中心怎么建起来的?

原文作者:AI前线

冷月清谈:

## 国产TPU智算中心建设:两大关键组成部分

TPU芯片:

  • 专为AI深度学习设计的架构,优化非线性计算,算力性能强。
  • 适合构建大规模AI计算集群,高效数据流和网络形态。
  • 本次智算中心采用中昊芯英自主研发的“刹那®”TPU芯片和“泰则®”AI计算集群系统。

算力调度:

  • 随着芯片数量激增,通信效率成为挑战。
  • TPU独特的片间互联能力,轻松实现千片以上芯片互连,构建大规模集群。
  • 中国联通自研“星罗”算力管理平台,实现多元算力适配和服务编排,一体化算力运营服务。

智算中心面临的挑战和应对策略

挑战:能耗控制

  • 单机密度和功耗密度越来越高,能耗成为问题。

应对:

  • 采用高效能设备(液冷、磁悬浮冷机等)。
  • 精细化管控能耗,优化运营管理,降低PUE。

智算中心优势:算力共享

  • 避免单个企业算力闲置或不足。
  • 提高算力整体利用率,降低运营成本。



怜星夜思:


1、TPU 架构与 GPU、CPU 相比,在 AI 深度学习领域有哪些独特优势?
2、构建大规模TPU集群时,除了TPU芯片,还面临哪些技术挑战?
3、智算中心如何应对高能耗问题?

原文内容

作者 | 褚杏娟

9 月 9 日,广东地区首个采用国产 TPU 技术的智算中心成立。该项目一期由 32 个算力节点通过高效互联构建而成,后期将扩容至千卡规模,形成训推一体化的枢纽,成为中国联通在深圳的核心智算高地的重要组成部分。

深圳作为全国科技创新的前沿阵地,一直走在人工智能产业发展的前列。据深圳联通副总经理赵桂标介绍,此次中昊芯英与深圳联通联合进行的高性能 AI 智算中心项目合作,不仅是对国家智算能力布局要求的积极响应,也为深圳乃至全国的人工智能产业发展注入强劲动力。智算中心的主要客户一是政企客户、二是工业制造方面的客户、三是金融客户、四是医疗客户。

那么,这样一个重要的智算中心是怎么建成的?其中有两个重要组成部分:TPU 芯片和算力调度。

TPU 架构,专为 AI 深度学习设计。相较于 CPU 的 if else 类的逻辑开销,GPU 用于光线追踪的计算开销,TPU 则专注于针对深度学习的主要计算方式(如非线形计算)进行硬件优化设计,这些特定的计算方式和硬件算子是 CPU 和 GPU 所不具备的,这就使得 TPU 在用于 AI 深度学习时更有算力性能优势。而这一性能优势在集群层面更甚,多 TPU 芯片系统的构建方式,也是针对深度学习在模型训练和推理过程中所需要的数据流特征,而构建的专用的网络形态和网络基础架构。这样的网络形态没有向前兼容的负担,所以它比英伟达的 NVlink 更适合跑大模型的应用。无论是单芯片还是系统级,TPU 芯片都有特定的技术路线优势来实现 AI 场景中进行算法运行时的算力性价比的巨大提升。

本次智算中心的 AI 计算底座选择了搭载中昊芯英自主研发的高性能 TPU 架构 AI 芯片“刹那®”的人工智能服务器及大规模 AI 计算集群系统“泰则®”。中昊芯英创始人兼 CEO 杨龚轶凡表示,“我们想把 TPU 架构做成 AI 界的 X86。”

同样是由前谷歌的 TPU 团队核心成员创办的 Groq,最近推出了新的 AI 加速芯片 LPU。杨龚轶凡解释称,从 Groq 的论文中可以看出 LPU 就是类 TPU 架构,本质上和 TPU 没有太大区别。杨龚轶凡曾在 Google 负责 TPU 芯片研发工作,也曾在 Oracle 参与、主导过 12 款高性能服务器级别 CPU 芯片的设计与研发,中昊芯英核心研发团队成员都是一批来自于谷歌、微软、三星、甲骨文的 AI 软硬件设计专家,具备从 28nm 到 7nm 各代先进制程工艺下大芯片设计与优化完整方法论。

杨龚轶凡说:“芯片的设计研发的确是集结了很多人心血的系统化工程,也是集结了人类社会最顶尖生产工艺的过程。在这个过程中,耗费的人力和脑力是很多的,经历的时间周期也很长。这也是为什么中昊芯英第一代芯片产品“刹那®”经历了 4 年半的设计和生产周期才能完成,它其实没有一个真实世界的对应参照物做验证,大部分的东西都是在想象和想象的过程中完成。但是当有了第一代芯片,之后的迭代就会顺畅些。”

关于智能算力落地应用,杨龚轶凡表示,芯片与系统集成的挑战尤为显著。随着芯片数量的激增,通信效率成为一大难题。协调难度骤增、背景噪音干扰严重、信息传递效率急剧下降……如何设计高效的信息交换协议与物理链路,从而实现千到万乃至十万级别核心间的顺畅交流,成为亟待解决的技术瓶颈。

而 TPU 以独特的片间互联能力展现出强大的可拓展性优势。它能够轻松实现千片以上芯片片间互连,形成数据网络,并支持节点间的灵活交互与通信。这一特性使得 TPU 在构建大规模集群时更为简便,谷歌第 6 代 TPU 已能内部连接 16000 个芯片,无需依赖外部以太网,为万卡至百万卡级别的集群部署奠定了坚实基础。

此外,智算中心另外一个特点就是,智算中的单机密度和功耗密度越来越高,原来机架的功耗是 4 千瓦、6 千瓦、8 千瓦、20 千瓦,接下来可能 40 千瓦,功耗会越来越高。

对此赵桂标表示,对于能耗的控制主要依赖于两个方面:首先,在规划和建设层面,要大胆拥抱新技术,采用高效能的设备,比如液冷、磁悬浮冷机和模块化的电源等。通过采用高效能的设备利用自然冷源来降低能耗;其次,在运营管理层面上,不断积累精细化管控能耗的经验,持续优化、提升降低 PUE 来达到降低能耗目的。智算中心最后就是电力的竞争,不断降低能耗是整个行业要面对和不断攻克的问题。

中国联通以国家智算能力布局为导向,为推动全国范围内的人工智能产业发展,将深圳作为这一布局中的核心智算高地,同时,该项目将搭载联通云自研“星罗”算力管理平台,实现多元异构算力的适配和服务编排,形成“通算 + 智算 + 超算”的融合调度能力,可面向客户提供一体化的算力运营服务,也可用于企业私有化部署的智能算力网络搭建及运营管理。根据介绍,智算中心的优势在于算力的共享,避免单个企业因业务需求波动导致的算力闲置或不足问题,提高算力整体利用率,降低运营成本。

 内容推荐

2024年8月18-19日,AICon 全球人工智能开发与应用大会·上海站成功举办,汇聚超过60位大模型行业先锋,全方位剖析大模型训练与推理机制、多模态融合、智能体Agent前沿进展、检索增强(RAG)生成策略、端侧模型优化与应用等热点内容。经过嘉宾授权,「AI前线」为你独家整理了一份演讲PPT合集,不容错过。关注「AI前线」,回复关键词「PPT」免费获取。

 会议推荐

InfoQ 将于 10 月 18-19 日在上海举办 QCon 全球软件开发大会 ,覆盖前后端 / 算法工程师、技术管理者、创业者、投资人等泛开发者群体,内容涵盖当下热点(AI Agent、AI Infra、RAG 等)和传统经典(架构、稳定性、云原生等),侧重实操性和可借鉴性。现在大会已开始正式报名,可以享受 9 折优惠,单张门票立省 480 元(原价 4800 元),详情可联系票务经理  17310043226 咨询。



今日荐文





图片
你也「在看」吗?👇

学术派:
大规模TPU集群构建的挑战,包括高效的信息交换协议和物理链路设计,协调难度和背景噪音干扰等问题。实现芯片间顺畅通信尤为重要。

娱乐派:
就像给高性能跑车装上混合动力系统,既能保证动力,又能降低油耗。

学术派:
智算中心高能耗应对策略包括采纳高效能设备(液冷、磁悬浮冷机等)和精细化管控能耗,优化运营管理,降低PUE。

抖机灵派:
听说有的智算中心建在北极圈附近,靠着天然的低温省空调整电费,真是机智!

抖机灵派:
群聊人数多了,总有几个话痨和麦霸,如何让他们不卡麦、不炸群,就是个考验管理员的技术活了。

抖机灵派:
TPU、GPU、CPU,就像开车的自动挡、手动挡、自行车。自动挡(TPU)可能性能更好、操作更方便,但手动挡(GPU)和自行车(CPU)也有自己的乐趣和优势。不过,要飙车的话,还是得选自动挡。

学术派:
TPU专注于深度学习中非线性计算的硬件优化,具有更适合深度学习的算子。与CPU和GPU相比,TPU的算力性能更强。

娱乐派:
就好像一群武林高手聚在一起开大会,怎么保证他们能互相听清说话、配合默契,也是个不小的难题。

娱乐派:
比喻一下,TPU就像专攻武术的武术家,而CPU和GPU就像十八般武艺样样精通的全能选手。虽然全能选手也很厉害,但当要在武术比赛中决胜负时,还得靠专精的武术家。