OpenAI 拥抱谷歌 TPU:竞争对手间的合作与AI芯片多元化趋势

OpenAI 为缓解 GPU 紧缺并降低依赖,开始租用谷歌 TPU 芯片,标志着 AI 基础设施多元化趋势。

原文标题:OpenAI转向谷歌TPU:宿敌也能变朋友?

原文作者:机器之心

冷月清谈:

OpenAI 近期开始租用谷歌的 TPU 芯片,以支持 ChatGPT 等产品,缓解 GPU 紧缺问题并降低对英伟达和微软的依赖。此举被视为 OpenAI 首次大规模采用非英伟达芯片,可能推动 TPU 成为更具性价比的替代方案。谷歌通过此次合作,不仅成功将内部 TPU 商品化,还获得了 OpenAI 的“重量级背书”,提升了在高端 AI 云市场的话语权,并传递出 AI 基础设施多元化的市场信号。

怜星夜思:

1、OpenAI 同时拥抱谷歌 TPU 和自研芯片,这两种策略分别有什么优劣势?未来哪种策略会成为主流?
2、谷歌愿意出租性能不是最顶尖的TPU给直接竞争对手OpenAI,这种行为背后有哪些商业策略和风险考量?
3、OpenAI 选择 TPU 是否意味着英伟达 GPU 在 AI 领域的统治地位开始动摇?未来 AI 芯片市场格局会如何演变?

原文内容

机器之心报道

编辑:Panda


据路透社等多家媒体报道,一位知情人士称,OpenAI 最近开始租用谷歌的 AI 芯片来支持 ChatGPT 及其其他产品。


现目前,OpenAI 是英伟达 GPU 的最大买家之一 —— 这些设备在 AI 大模型的训练和推理阶段都必不可少。


看起来,OpenAI 不仅试图远离微软,现在也在开始远离英伟达了。


但与谷歌合作?也着实让人意外,毕竟拥有 Gemini 系列模型的谷歌可以说是 OpenAI 最直接且最强大的竞争对手之一。



如果考虑到 OpenAI 还曾聘请了谷歌云 TPU 高级工程总监 Richard Ho 作为其硬件负责人,并有传言说 OpenAI 还在推动自研 AI 芯片项目,这样的合作就更让人惊讶了。


Richard Ho 曾在谷歌工作近九年,全程参与 TPU 系列的研发,担任高级工程总监级别;后进入 Lightmatter 担任 VP;2023 年加盟 OpenAI


OpenAI 为何这样选择呢?


一个原因是 OpenAI 用户增长很快(近日宣布已有 300 万付费企业用户),正面临严重的 GPU 紧缺问题。为了保证 ChatGPT 推理能力不受影响,他们必须寻找替代方案。


另一个原因可能是希望降低对微软的绑定程度,这也是 OpenAI 近段时间一直在做的事情。这两家公司最近也相当不愉快。


𝕏 用户 @ns123abc 对近期几篇相关报道的总结


据了解,这是 OpenAI 首次真正开始使用非英伟达芯片,这可能会推动 TPU 成为英伟达 GPU 更便宜的替代品。


具体使用方式上,据 The Information 报道,OpenAI 是希望通过谷歌云租用的 TPU,但谷歌云有员工表示,由于 OpenAI 与谷歌在 AI 赛道的竞争关系,谷歌并不会向其出租最强大的 TPU。


谷歌 Cloud TPU 定价


那对谷歌来说,这意味着什么呢?


谷歌目前正在扩大其张量处理单元(TPU)的对外开放程度,并已经赢得了苹果、Anthropic 和 Safe Superintelligence 等客户。


要知道,过去几年,AI 模型训练与推理几乎清一色依赖英伟达 GPU。如今,全球最核心的 AI 公司之一 OpenAI 开始采购谷歌的 TPU,这不仅意味着谷歌终于将内部使用多年的 TPU 成功商品化,而且还获得了「重量级背书」。谷歌在高端 AI 云市场的话语权得到提升,有望吸引更多大模型公司迁移阵地。这还表明 TPU 性能、稳定性、生态工具链已达到 OpenAI 的高要求。


谷歌已经发布了第 7 代 TPU Ironwood,参阅报道《


同时,这也传递出了一个清晰的市场信号:AI 基础设施不等于英伟达,多元化已开始成为趋势。


参考链接

https://www.theinformation.com/articles/google-convinces-openai-use-tpu-chips-win-nvidia

https://www.reuters.com/business/openai-turns-googles-ai-chips-power-its-products-information-reports-2025-06-27/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

这明显是谷歌的策略性举动啊。首先,这可以提升谷歌云的竞争力,吸引更多客户。其次,通过与 OpenAI 合作,谷歌可以了解其需求,改进 TPU 的设计和性能。当然,风险是存在的,可能会被 OpenAI 学到 TPU 的关键技术,加速其自研芯片的进程,但总体来说,利大于弊。

从长远来看,自研芯片可能更具优势,能根据自身需求定制优化,但前期投入巨大,风险也高。使用 TPU 虽然受制于人,但可以快速解决算力短缺问题,降低成本。我觉得不会有哪一种策略成为绝对的主流,更可能是并存,根据不同的业务需求和发展阶段灵活调整。

这叫“放长线钓大鱼”!谷歌估计是想通过 OpenAI 这块招牌,告诉大家 TPU 也很好用,让更多人来用。至于 OpenAI 学技术?呵呵,谷歌的技术壁垒没那么容易被打破,何况还能赚 OpenAI 的租金呢!

自研芯片的优势在于完全掌控,可以针对 OpenAI 的特定工作负载进行优化,理论上能达到更高的性能和效率。劣势在于需要巨大的研发投入和时间周期,而且可能面临技术风险。而 TPU 的优势在于快速部署和成本效益,劣势在于受制于谷歌的技术和供应。个人认为,自研芯片代表了未来的方向,但 TPU 在现阶段是一个务实的选择。

与其说是GPU和TPU之争,倒不如说是英伟达CUDA生态和谷歌整个AI生态之争。各位觉得站哪边赢面大?

不能简单地说动摇了英伟达的地位。英伟达在 AI 芯片市场深耕多年,软硬件生态都很成熟。TPU 的优势在于定制化和性能,但生态相对薄弱。未来,AI 芯片市场会更加多元化,英伟达依然会是重要玩家,但也会面临来自谷歌、AMD 等厂商的挑战。

只能说是挑战,还谈不上动摇吧。CUDA 这护城河不是盖的!不过 TPU 这次也算是打响了名号,以后没准会分一杯羹。长期来看,AI 芯片肯定不会是一家独大,不然英伟达就躺着赚钱了。

谷歌可能更看重 TPU 的市场推广和生态建设,毕竟 OpenAI 的影响力巨大。即使出租的不是最强型号,也能扩大 TPU 的用户群体,吸引更多开发者。风险在于 OpenAI 如果仅将 TPU 作为备选方案,未来可能转向其他技术,导致谷歌的投入回报不确定。

谢邀,人在硅谷,刚下飞机。我觉着两条腿走路挺好,自研代表未来,万一成功了呢?TPU是现在,能解决实际问题。但是自研芯片这事儿,烧钱是肯定的,风险也高。别到时候两头不靠,反而把GPU给耽误了。