英伟达豪掷千亿兆瓦算力,押注下一个“OpenAI”:Thinking Machines Lab 浮出水面

英伟达向Thinking Machines Lab提供1吉瓦算力,押注其成为下一个OpenAI级别的平台型公司,并深度参与AI生态建设与标准制定。

原文标题:黄仁勋砸千亿兆瓦算力,押注下一个“Open AI”

原文作者:AI前线

冷月清谈:

英伟达向由前OpenAI高管创立的Thinking Machines Lab提供1吉瓦的下一代算力,这相当于接近10个大型数据中心的规模。双方将在模型训练、推理系统和模型能力上进行深度合作。此次合作不仅是算力采购,更是资本、芯片和技术路线的深度绑定。英伟达希望通过这种方式,提前锁定未来的AI客户,并参与到AI生态的成长红利中。Thinking Machines Lab专注于多模态AI和模型后训练基础设施,旨在构建一个可扩展的分发网络,与OpenAI等巨头竞争。然而,公司在快速扩张的同时也面临着组织动荡的挑战。

怜星夜思:

1、英伟达如此大手笔投入Thinking Machines Lab,除了算力合作,你认为更深层次的原因是什么?
2、Thinking Machines Lab的核心竞争力在于其多模态AI和模型后训练基础设施,你认为这种策略在AI领域有什么优势和风险?
3、考虑到Thinking Machines Lab成立不久就面临核心创始人离职的情况,你觉得这对公司的发展会产生什么影响?他们应该如何应对?

原文内容

作者 | 允毅

一个还没拿出惊艳产品的初创公司,竟然接到了英伟达送来的 “泼天算力”?

这一次,英伟达把投资触角伸向了这家还名不见经传的 “新 AI 实验室”。

3 月 10 日,前 OpenAI 高管 Mira Murati 宣布,她创办的 Thinking Machines Lab,与 NVIDIA 达成一项长期战略合作。

按照协议,英伟达将为 Thinking Machines Lab 提供至少 1 吉瓦 的下一代 NVIDIA Vera Rubin 系统,用于前沿模型训练和平台建设,支持其大规模交付可定制的 AI 解决方案;而 Thinking Machines Lab 则将围绕 NVIDIA 架构设计训练和服务系统,并扩大企业、研究机构和科学界对前沿人工智能及开放模型的访问。这套系统预计将于明年初正式部署。

简单来说,英伟达提供的是下一代算力底座,而 Thinking Machines Lab 则在这套底座上打磨训练体系、推理系统和模型能力。 这不是一笔普通的算力采购,而是资本、芯片和技术路线的一次深度绑定。

更值得关注的,是这笔合作的 规模

1 吉瓦是什么概念?1 吉瓦等于 1000 兆瓦。

根据全球最权威的能源政策与数据机构之一 IEA 显示,普通数据中心通常只有 5 到 10 兆瓦,大型 hyperscale 数据中心通常在 100 兆瓦以上。而 Thinking Machines Lab 这次拿到的是 接近 10 个 100 兆瓦级大型数据中心的总量级

有业内人士测算,这个规模足以覆盖约 75 万个美国家庭的用电规模,而整体投入成本甚至可能高达 500 亿美元

放在今天的 AI 竞赛里,这已经不是普通创业公司的配置。真正接近这一门槛的,往往只有 最顶级的 AI 实验室

2025 年 9 月,OpenAI 与英伟达公布的战略合作,共同部署 10 吉瓦 AI 基础设施,以支撑下一代 AGI 的开发,这是史上空前的算力投资规模,而 Thinking Machines Lab 拿下的量级,已是它的 十分之一。横向来看,马斯克在 2025 年末为 xAI 买下第三栋大楼,目标将训练能力推至近 2 吉瓦;Meta 在得州推进的新数据中心,拓展目标也在 1 吉瓦级

可以说,在算力储备上,这家创业公司已经和巨头站在同一量级

据美国媒体 Axios 推测,如此庞大的算力,不可能只用来做小模型、垂直应用或轻量化工具。它更对应持续的基础模型训练、多模态系统开发、推理平台搭建,以及面向企业和科研机构的大规模服务能力。

而在 Mira Murati 的推特上,也能找到一些“蛛丝马迹”,她点出一个关键词 “协作式人工智能”

所谓“协作式 AI”,就是强调与人共同完成任务、能按个人或机构需求灵活适配的多模态系统。

作为 Open AI 人才流向中最显眼、最集中的新去处之一,Thinking Machines Lab 从诞生起就自带光环。

这家公司成立于 2025 年 2 月,据路透社报道,刚亮相时团队约 30 人,其中 至少 20 人来自 OpenAI。成立仅 5 个月,它就拿下 20 亿美元种子轮融资,成为硅谷史上最大种子轮之一,投资方名单包括 a16z、英伟达、AMD、思科等巨头。黄仁勋更是直接称其为 “世界一流的团队”。

此次与英伟达的合作,已是英伟达在种子轮之后,再度加码投资 + 绑定算力。这无疑释放了几个信号:

  • Thinking Machines Lab 正在升级,从一家 “明星创业公司”,走向 “前沿模型基础设施玩家”。它瞄准的,不只是应用层的细分赛道,而是下一代前沿模型的核心竞争
  • 而英伟达不只想卖铲子,还想参与建矿了,它希望更深地嵌入下一代 AI 公司的资本结构、算力供给和技术路线图之中。
英伟达的全面布局

如果只把这笔合作理解为英伟达对一家明星创业公司的特殊扶持,可能还是低估了它的意义。

从押注 Thinking Machines Lab,到回看英伟达的整体布局,就能清晰看出这家芯片巨头为巩固断崖式领先所布下的全局棋局。

面对已成型的 AI 巨头,英伟达先是与 OpenAI 达成 10 吉瓦算力合作,共建 AI 工厂,并持续巨额投入;随后又通过微软、英伟达、Anthropic 三方绑定,为 Anthropic 提供下一代硬件、1GW 算力与最高 100 亿美元投资,双方还联合定制模型与芯片架构,实现技术深度锁死。

面对 AI 新势力,英伟达同样全面下注:向 AI 搜索公司 Perplexity 投资 5 亿美元,参投 AI 视频工具 Runway、人形机器人 Figure AI、自动驾驶公司 Wayve 等一众明星项目,几乎覆盖下一代热门赛道。

可以说,英伟达布局逻辑很直白,提前锁定未来大客户,而不是等它们长大再抢单

Thinking Machines Lab 正是英伟达看中的 “超级潜力买家”,它押注的不是某个产品,而是下一个 OpenAI 级别的平台型公司。哪怕这家新实验室目前只有训练 API、研究方向与明星团队,英伟达看重的是其未来长成平台的潜力。越早进入这些公司的资本结构与技术路线,就能越早分享整个生态成长的红利,而不只是单一的芯片收入。

而且,英伟达的 “绑定” 早已不是简单提供算力,而是将客户锁进从芯片、网络、系统软件到数据中心的整套 AI Factory 全栈方案

对英伟达而言,押注 AI 新实验室的意义,不只是提前卖出下一代 GPU,更在于趁这些公司仍处于底层系统搭建阶段,就把自己的架构写进其训练、推理和运维体系。等到模型、集群和服务真正跑起来,客户依赖的将不再只是某一代芯片,而是整套基础设施逻辑,迁移成本也会随之大幅抬升。

黄仁勋在 2026 年 GTC 上曾用一个颇具代表性的框架来解释这种变化。他把 AI 产业概括为一个自下而上的“五层架构”:能源、芯片、基础设施、模型和应用。

过去外界更习惯把 AI 竞争理解为模型之争,但在黄仁勋的叙述里,最底层的能源,才是 AI 基础设施的第一性原理。没有足够的电力、冷却、园区和并网能力,就谈不上后面的芯片集群,更谈不上模型训练和应用落地。

而在最新的长篇博客中,这一判断被进一步推到了产业底层逻辑的高度。黄仁勋的核心意思是:今天的 AI 仍处在极早期阶段。过去几年行业确实已经砸下了数千亿美元,但这些投入更像是在铺设地基,距离 AI 潜力被真正释放,仍有很长的路要走。

他甚至预测,到本世纪末,全球 AI 基础设施支出将达到 3 万亿~4 万亿美元 

顺着这套逻辑看,英伟达现在想推进的,已经不只是“芯片公司”的角色,而是更接近 AI 工厂总包商

它一边与 OpenAI、Anthropic、Thinking Machines 这样的模型公司深度绑定,一边与 Meta 等科技巨头推进多年期基础设施合作,也与 Lilly 这样的制药企业、以及政府和科研机构推动行业级、国家级 AI 基建。

这里最深的一层争夺,其实不是某一笔订单,而是 标准制定权:未来训练大模型、跑推理、做物理 AI、建设 GW 级园区,默认应该采用什么架构、什么网络、什么供电和冷却方式、什么系统软件栈。谁定义了这套默认方案,谁就不再只是供应商,而是在定义下一代 AI 工厂的入口与标准。

Thinking Machines Lab 的野心与动荡

再看 Thinking Machines Lab,这家公司从一开始切入的,其实就是模型后训练和微调基础设施这层“脏活累活”。

具体来说,它给研究者、开发者留足了自主权,可以自己掌控训练用的数据、算法和训练逻辑,训练出来的模型权重,也可以保存、恢复、下载,甚至发布出去。

而这家公司的核心作用,就是提供一套现成的训练工具,帮大家解决训练过程中最头疼的问题,比如分布式训练、任务调度、资源分配和故障恢复,让开发者不用再费心搞这些“底层基建”,能专心做模型本身。

表面看,它是在帮别人微调模型;往深了看,它真正搭建的是一套面向未来的底座。 无论是更大规模模型训练、更复杂的实验流程,还是更高强度的推理需求,最终都要落到这套系统能力上。

而搭建这样的 AI 基础平台,当然离不开超大算力的支撑,这也是它与英伟达展开合作的重要原因。

但或许又有人问了,它从英伟达拿到的 1 吉瓦算力,搞这么大场面,只是为了做这些么?

确实不止如此,我们可以进一步揣测一下 Thinking Machines Lab 的野心。

从公司官网可以看出,这家公司反复强调两件事:

第一,多模态是核心。只有让模型真正具备理解图像、文本乃至真实世界的能力,AI 才可能走向大规模落地。

第二,研究和产品不能分开,研究能否高效推进,最终取决于底层基础设施是否稳定、顺手、可扩展。

如此大规模的算力投入,显然不是为了训练一版模型后就停机,而是为了同时支撑多个层面的任务:前沿基础模型预训练、多模态与大规模 MoE 模型的持续实验、模型后训练与优化、企业客户服务,以及面向科研机构的开放访问。

这也意味着,Thinking Machines Lab 的野心从来不只是做出一个模型,而是想把自己的模型能力、训练能力和服务能力,铺成一张可扩展的分发网络。

如果说过去 AI 竞争比拼的是“谁拥有更好的模型”,那么今天比拼的已经是“谁能同时攥住资本、芯片、供电、园区和系统架构协同”。对于创业公司而言,能和英伟达这样的巨头深度绑定,意味着能获得最稀缺的确定性算力与交付效率。

Thinking Machines Lab 高调亮出 1 吉瓦算力,本质上是在向外界宣告:它不满足于做牌桌旁的旁观者,而是要真正坐上牌桌,与 OpenAI、Anthropic 等巨头正面竞争。

不过,野心越大,组织压力也越大。Thinking Machines Lab 成立仅一年左右,团队就从最初约 30 人扩张到约 120 人。

与此同时,其核心联合创始人集体 “叛逃。2025 年 10 月,联合创始人 Andrew Tulloch 离开公司加入 Meta;2026 年 1 月,两位联合创始人 Barret Zoph 和 Luke Metz 与研究人员 Sam Schoenholz 纷纷回到 OpenAI。

对一家仍处快速扩张期的公司来说,这未必意味着战略失速,但足以说明,它的“全栈野心”正在经受组织动荡的考验。

参考链接:

https://thinkingmachines.ai/news/nvidia-partnership/

https://job-boards.greenhouse.io/thinkingmachines

声明:本文为 AI 前线整理,不代表平台观点,未经许可禁止转载。

会议推荐

2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设!

QCon 北京 2026 已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。开往 2026 的 Agentic AI 专列即将启程!汇聚顶尖专家实战分享,把 AI 能力一次夯到位!

今日荐文

图片

你也「在看」吗?👇

格局要大!这不仅仅是商业利益或者分散风险,更是一种技术路线的押注。英伟达可能认为Thinking Machines Lab在“协作式AI”上有独到的见解,能代表AI的未来发展方向,所以才不遗余力地支持。这就像当年投资OpenAI一样,看中的是未来的潜力。

多模态AI的应用前景太广阔了!比如在医疗领域,AI可以结合病人的影像资料、病历和基因数据,进行更精准的诊断和治疗。在教育领域,AI可以根据学生的学习风格和习惯,提供个性化的学习内容和辅导。还有自动驾驶、智能家居、虚拟现实等等,简直无处不在!

我倒觉得这未必是坏事。有人员流动说明公司内部存在竞争和活力。而且,这些离开的人才也可能成为公司未来的资源。说不定过几年,他们又会带着新的经验和想法回来,给公司带来新的发展机遇。硅谷的人才流动是很正常的现象,不必过度解读。

我感觉“协作式AI”有点像科幻电影里的 Jarvis,能够理解你的意图,主动提供帮助。虽然现在还很遥远,但技术发展的速度往往超出我们的想象。说不定哪天,我们真的能拥有一个智能助手。

客观来说,我觉得这家公司目前还处于非常早期的阶段,未来面临的挑战很多。除了技术和团队,资金链也是个大问题。1吉瓦算力听起来很厉害,但烧钱速度也肯定快的惊人,能否持续获得融资,对他们的发展至关重要。

“协作式AI”听起来更务实。通用AI固然美好,但离实际应用还有距离。协作式AI更注重解决特定场景下的问题,可以更快地产生价值。缺点可能在于通用性不足,难以应对未知的挑战。

优势:更贴近用户需求,定制化程度高,易于落地。劣势:可能存在碎片化问题,难以形成规模效应,长期来看,通用AI的潜力更大。

协作式AI听起来挺有意思的,感觉就像AI助手,能和你一起完成任务。现在很多AI感觉更像是工具,你给它指令,它执行。但协作式AI可能更懂你的需求,能主动提供建议,甚至帮你做决策。如果真的能实现,感觉未来AI会更像你的好伙伴。

从技术角度来看,协作式AI需要解决的关键问题包括:如何准确理解人类意图?如何进行有效的沟通和反馈?如何建立信任关系?这些都需要在算法、模型和交互设计等方面进行创新。此外,伦理问题也需要考虑,例如,如何避免AI过度干预人类决策,如何保护用户隐私等。

我觉得英伟达肯定不只是想卖GPU这么简单。你想,现在AI竞争这么激烈,光有硬件不行,还得有生态。英伟达这是在提前布局,把自己的架构嵌入到这些AI公司的底层系统里,以后这些公司想换平台,成本就太高了。这不就是变相垄断吗?

核心团队出走对初创公司打击太大了!就像盖房子,地基还没打好,设计师就跑了,后面肯定会出问题。不知道是不是因为公司内部方向不一致,或者大佬们有更好的机会?希望他们能挺过去,毕竟技术才是王道啊!

谢邀,人在实验室搬砖。“协作式AI”可能更强调模型的Adaptability,也就是适应性。现有模型很多时候是“one-size-fits-all”,但实际应用场景千差万别,所以需要模型能够快速适应新任务。但这种模式对数据质量和模型训练技术要求很高,需要持续投入。

黄仁勋的这个观点非常深刻!AI算力需求巨大,没有足够的能源供应,一切都是空谈。这提醒我们,发展 AI 不能只关注算法和模型,还要重视能源基础设施的建设。未来,谁能掌握能源,谁就能在 AI 竞争中占据优势。所以,大力发展清洁能源,构建绿色AI,才是可持续发展之道。

英伟达这波操作,押注的显然是整个AI生态的主导权。与其说是在卖铲子,不如说是在圈地。Thinking Machines Lab 的多模态和协作式 AI 方向,正好契合了英伟达构建全栈AI方案的野心。其他芯片厂商想学?先看看自己有没有这种资源整合能力和对未来趋势的把握。没有的话,还是专注提升芯片性能更实在一点。

这个观点简直是醍醐灌顶!以前我们都觉得AI的核心是算法,现在看来,能源才是真正的命脉。想想也是,没有电,GPU就是一堆废铁。这说明,AI的发展离不开能源技术的进步。未来,谁能解决AI的能源问题,谁就能引领AI的未来。建议大家多关注一下新能源技术,说不定下一个风口就在那里。

从风险管理的角度,任何初创公司都应该有应对核心团队成员变动的预案。比如,在股权分配上设置一定的退出机制,在技术上做好知识转移和备份,避免过度依赖个人。此外,建立良好的企业文化和晋升机制也很重要,可以提高员工的归属感和忠诚度。

从产业布局的角度分析,英伟达此举意在构建一个自下而上的“五层架构”,即能源、芯片、基础设施、模型和应用。通过与Thinking Machines Lab深度绑定,英伟达不仅能提前锁定客户,更能将自身技术架构融入到客户的训练、推理和运维体系中,从而掌握AI基础设施的标准制定权。

我感觉英伟达是想深度绑定未来的AI生态啊!光卖芯片哪够,它想把自己的架构变成行业标准,这样就能持续获利了。就像盖房子,英伟达不只想卖水泥,还想把地基盖成自己设计的。

核心团队震荡肯定有影响啊,就像球队少了几个主力,实力肯定下降。应对方法就是赶紧找新人补上,稳定军心,别让大家觉得公司要完。