OpenAI 前 CTO Mira Murati 新公司估值百亿:能否在天价种子轮后开创 AI 新格局?

OpenAI前CTO Mira Murati新公司种子轮获20亿美元,估值120亿美元,剑指开源多模态AI,引发关注。

原文标题:种子轮就估值120亿美元,她能打造另一个OpenAI吗?

原文作者:机器之心

冷月清谈:

前OpenAI CTO Mira Murati创立的Thinking Machines Lab在种子轮融资中,成功募集20亿美元,估值高达120亿美元,这打破了传统种子轮的融资规模定义,成为硅谷史上规模最大的种子轮融资之一。这一巨额资金预计将主要用于构建顶尖人才团队和海量算力,以应对当前AI竞赛中的核心需求。亚马逊、英伟达和AMD等巨头的投资,也为新公司在“算力荒”中提供了有力支持。然而,这笔资金也带来了巨大的压力,Murati需要在规定时间内拿出颠覆性成果,以避免估值泡沫破裂。

Murati的离开恰逢OpenAI内部“政变”风波,她明确表示新公司将致力于构建“能以自然交互方式工作的多模态AI”,并承诺包含“开源组件”和分享“最优秀的科学成果”回馈研究社区,这与OpenAI日益封闭的趋势形成了鲜明对比。与同为OpenAI“出走者”的Ilya Sutskever极度追求安全、不问商业的路径不同,Murati似乎在探索一条平衡理想与现实的AI发展道路。

Thinking Machines Lab的名称或在致敬1980年代的超级计算机公司,目前已吸引多位AI领域重量级人物,组建起“AI梦之队”,其中包括曾在OpenAI负责ChatGPT、Dall-E等核心产品的Murati本人。近期Meta曾试图收购该公司也未果,进一步凸显了AI领域激烈的人才和技术竞争。市场对Thinking Machines Lab的新产品抱有极高期待。

怜星夜思:

1、文章提到Thinking Machines Lab获得了20亿美元的种子轮融资,投后估值高达120亿美元,远超传统认知。大家觉得这种"天价种子轮"是AI领域资本市场的新常态,还是隐藏着巨大的泡沫风险?它会对我们普通人的创业观产生什么影响?
2、Mira Murati的新公司强调产品将包含“开源组件”,并分享“最优秀的科学成果”,这与OpenAI和Meta近期逐渐走向封闭或转向闭源的趋势形成对比。大家觉得在AI大模型时代,是坚持开源更有利于技术创新和生态繁荣,还是走向闭源更能保护商业利益和核心竞争力?长远来看,哪种模式会成为主流?
3、文章里提到了两位OpenAI的“出走者”:Mira Murati和Ilya Sutskever,他们各自创业,一个似乎在探索“理想与现实的平衡”(Murati),另一个则走向了“极致的、纯粹的安全”(Ilya)。大家觉得在追求通用人工智能(AGI)的道路上,这两种截然不同的理念,哪种更有可能实现AGI,并且同时最大限度地确保人类福祉和AI伦理?

原文内容

机器之心报道

编辑:+0


据《金融时报》报道,OpenAI 前 CTO Mira Murati 的创业公司 Thinking Machines Lab 在一轮「种子轮融资」中成功募集了 20 亿美元,投后估值达到 120 亿美元,成为硅谷历史上规模最大的种子轮融资之一



从「几百万」到「二十亿」


20 亿的种子轮投资是什么概念?让我们先从一个金融知识开始。


「种子轮融资」(Seed Round Funding):创业初期,你有点子却缺资金。这时,你需要第一笔启动资金,这笔钱好比「种子」,用来孕育你的公司。它通常金额不大,但风险最高,因为公司仅有想法和团队,尚未推出产品或积累用户。


绝大多数 AI 初创企业早期融资只有几百万到几千万美元,即便是同为 OpenAI 的「校友」公司、如今 AI 巨头之一的 Anthropic,其第一轮正式融资也仅为 1.24 亿美元(2021 年 5 月)。20 亿甚至可以买下大半个 Windsurf 公司(核心技术加主要团队)。


这似乎颠覆了传统「创业」的定义。过去,一个颠覆性的想法在车库里就能诞生,几百万美元的种子轮足以让它发芽。


Google 的第一个办公地点车库。


可以预测,这笔钱的核心用途是构建一个在当今 AI 竞赛中缺一不可的「共生体」:顶尖的人才团队和支撑他们工作的海量算力


此轮融资由知名风投公司 a16z 领投,芯片巨头 Nvidia 和 AMD 也位列投资者名单,这也许是 Thinking Machines Lab 不用在「算力荒」中挣扎的有力证据。


但这 20 亿不只是光环,也是悬在 Murati 头上的达摩克利斯之剑,投资者不是慈善家,他们投入天价赌注,要求的是超高回报。她必须在规定时间内拿出颠覆性成果,否则估值泡沫会瞬间破灭。


出走者的「新理想国」?


OpenAI 安全团队负责人 Jan Leike 在离职时公开发文,怒斥 OpenAI 及其领导层忽视「安全」而偏爱「光鲜亮丽的产品」。这几乎是公开宣告了公司内部「加速派」与「安全派」的决裂。详见机器之心报道:《》。


Mira Murati 的离开和创业,也发生在 OpenAI 领导层「政变」风波之后。她的新公司,是否旨在建立一个她认为更理想的 AI 开发环境?


尽管 Thinking Machines Lab 成立不到一年,且对其具体研究内容高度保密,但 Murati 透露了公司未来的方向。她表示,公司正在构建「能以自然交互方式工作的多模态 AI——通过对话、视觉以及我们进行协作时那种略显混乱的真实方式」。



在 OpenAI 名字里还带着「Open」,却日益走向封闭的当下,Murati 明确提出产品将包含一个「开源组件」,对开发定制模型的研究人员和初创公司很有用。她还补充说,公司将分享其「最优秀的科学成果」以回馈研究社区。


不过有意思的是,Meta 作为开源社区的最大贡献者之一,近期却有转向开发闭源模型的传言。详见机器之心报道《》。


另外不得不提的是同为「出走者」的 Ilya Sutskever,他在 2024 年 6 月宣布成立新公司 Safe Superintelligence Inc.  (SSI),其唯一目标就是安全地构建超级智能,不为产品和商业利润所动。



同样有 OpenAI 的光环,同样至今 0 产品,却似乎正在探索两条截然不同的道路。Ilya 走向了极致的、纯粹的「安全」,不问商业,而 Murati 似乎试图在理想与现实中找到平衡。


Thinking Machines Lab


其实 Thinking Machines Lab 这个名字也挺有意思的,字面意思就已相当清晰。另外还有猜测它是在致敬一家成立于 1980 年代的计算机公司 Thinking Machines Corporation,以其开发的高性能并行计算机闻名,曾在超级计算和人工智能领域具有开创性意义。


在激烈的人才争夺战中,Thinking Machines Lab 已经吸引了多位重量级人物,堪称「AI 梦之队」。详见机器之心往期报道《》。


这其中最引人注目的成员,莫过于创始人 Mira Murati 本人,她在 AI 领域拥有卓越的履历。她在 OpenAI 曾负责 ChatGPT、Dall-E 等核心产品的开发,并在 2023 年 11 月的董事会风波中短暂担任临时首席执行官。此前,她还曾在特斯拉担任高级产品经理,参与了 Model X 的研发。


Mira Murati 在旧金山接受了《连线》与 Emily Chang 的采访。


另外,据媒体报道,近期在 AI 人才战中大获全胜的 Meta 公司也曾就收购 Thinking Machines Lab 进行过谈判,但最终未能进入正式报价阶段。


从近期的 AI 工程师天价「转会」风波,到 Thinking Machines Lab 20 亿的种子融资,我们可以看到 AI 在这个时代毫无争议的重要地位。


无论如何,大家对 Thinking Machines Lab 新产品的期待值已经拉满了。


参考链接:
https://www.wired.com/story/thinking-machines-lab-mira-murati-funding/
https://www.ft.com/content/136c04f2-787b-4ec3-9e0e-11eda682d52f
https://techcrunch.com/2025/07/15/mira-muratis-thinking-machines-lab-is-worth-12b-in-seed-round/

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

哎呀,什么新常态,什么泡沫风险,我只知道我工作攒点钱想搞个副业都扣扣搜搜的,人家种子轮直接20亿!这根本不是一个赛道的概念好嘛!感觉现在创业就像“修仙”,分“散修”和“大宗门弟子”,有后台的直接灌灵丹,没后台的只能自己慢慢吸收天地灵气。我对普通人的创业观影响就是:别想太多,干好本职工作,争取早日财富自由,然后也有机会去"投资"一把,哈哈。要不然就老老实实做个"普通人",欣赏这些大佬们在台上的表演就好啦。

关于这个问题,我个人认为它既是新常态的信号,也潜藏着泡沫风险。新常态在于,AI大模型时代对算力和顶尖人才的需求是天文数字,传统几百万的种子轮根本玩不转。资本方与其撒胡椒面式投资无数小初创,不如集中资源,重金押注像Murati这样有实绩、有资源、有愿景的“明星选手”,追求更快、更确定性的突破。这其实是技术发展驱动的投资范式转变。但风险也很明显,这种超高估值意味着对未来增长的极度透支,一旦产品落地不达预期,或者遇到更强的竞争对手,泡沫破裂的速度也会很快,那将是灾难性的。对普通人创业观的影响嘛,可能就是让我们意识到,除非你有颠覆性的核心技术或者极强的圈内资源,否则想在AI这个赛道上复制这种"奇迹",机会是越来越渺茫了,更像是精英资本的游戏。

历史经验告诉我们,在任何一个颠覆性技术初期,开源往往能提供一个快速迭代和普及的基础。比如Linux,比如Android。开源的优势在于能够吸引大量的外部贡献,加速技术成熟,并且为整个生态提供了一个共同的基石。但当技术进入商业化阶段,尤其是涉及到核心知识产权和巨额研发投入时,闭源的趋势就会自然出现。像Apple的iOS,Google的搜索算法,都是闭源的典范。AI大模型面临的挑战是,开源大模型需要巨额的算力支撑,这本身就是壁垒。我觉得未来可能会出现"基础层开源,应用层闭源"的趋势。比如,会有像Llama这样的高质量开源大模型作为通用基座,大家可以基于此二次开发;但那些在特定领域经过精调、性能卓越、带有商业秘密的模型,则会走闭源路线。这既能促进开放创新,又能保护商业利益。

这是一个老生常谈但又极其关键的问题。我个人认为,开源和闭源各有其优势和适用场景。开源模式确实能加速技术创新,通过社区协作解决Bug、优化模型、发现新应用,尤其是在基础模型研发阶段,能迅速集结全球智慧,降低门槛,促进生态繁荣。Llama系列就是很好的例子。但闭源模式能更好地保护公司的商业秘密和核心竞争力,尤其是在模型能力达到商业化水准后,可以确保营收和利润。OpenAI和Meta的转变,可能正是基于商业利益最大化的考量。长远来看,我倾向于认为会是"混合模式"成为主流:基础研究和部分通用模型可能会保持开源(或"伪开源",即只开放部分),以吸纳社区力量和人才;而针对特定应用场景、具备高附加值的"上层"模型或定制化服务,则会倾向于闭源以实现商业变现。这是一个动态平衡的过程,谁能找到这个平衡点,谁就能在竞争中胜出。

我觉得这事儿吧,看谁牌多。现在你看,OpenAI手握GPT系列,模型能力碾压一片,它不开源也照样有人用,因为它就是"大哥"。但是小弟们要是想追赶,就得靠开源社区的力量,或者像Llama那样"半开源",让大家一起来"炼丹"。你看阿里腾讯百度都在搞自己的大模型,基本都是闭源,因为它要"护城河"啊。Mira Murati选择开源,可能是"曲线救国",初期没有OpenAI那么强的技术壁垒,就通过开源吸引开发者和研究者一起搭建生态,等把技术搞上去了,说不定也会"变脸"呢,毕竟资本家不是慈善家嘛!所以我斗胆预测,最后还是谁模型最牛,谁就说了算,开源闭源都是策略,核心还是"能力"。

这是一个哲思与实践交织的问题。Ilya代表的“极致安全”路线,我理解为对AGI潜在风险的极度谨慎,甚至不惜牺牲商业化进程,这是一种"防患于未然"的理念,但在没有AGI真正出现之前,这种"纯粹"的投入是否过于超前,甚至可能错失发展窗口期,值得商榷。Murati的"理想与现实平衡"路线,则更像是"边发展边规范,在发展中解决问题"。她强调开源和科学分享,试图在商业利益和技术进步之间找到一个契合点。我认为,AGI的实现,绝非单一路径能完成,它需要技术的突破,也需要社会伦理、法律法规的同步发展。纯粹安全固然重要,但没有技术的推进,“安全"也无从谈起;过度商业化则可能忽视风险。或许,短期内推动AGI发展并带来实际效益的,会是Murati这种平衡路线,因为她能吸引更多资源,将技术推向市场。但长期来看,Ilya所倡导的"安全优先"理念,将是AGI最终能否被社会接受、融入人类文明的关键保障。两者不是互斥,而是互补,甚至可以说是AGI发展不可或缺的"两只脚”。

这个问题可太大了,简直是"电车难题"的AGI版!我认为,纯粹的"极致安全"路线在初期可能无法有效推动AGI的快速发展。毕竟,没有"产品"和"应用"的反馈,安全研究也容易脱离实际,变成空中楼阁。Murati的"平衡"策略,通过引入开源和商业化,能够汇聚更多资源,加速AGI的"生长"。然而,“发展"必然伴随"风险”,如何在快速发展中有效管控风险,是她这条路上最大的挑战。从人类社会发展的历程来看,任何革命性的技术都无法避免"摸着石头过河",完全的"安全"是不存在的,重要的是建立起一套有效的"风险管理和伦理治理"体系。所以,我认为"平衡"路线可能更具实现AGI的实用性,但前提是必须从一开始就将"伦理和安全"融入到产品设计和开发流程中,并且有透明的机制接受社会监督。而Ilya的"极致安全"思想,则应作为整个AGI发展过程中的"警示灯"和"终极约束",提醒大家不要为了追求速度而忽视了AGI潜在的巨大威胁。两者其实是相互制衡、缺一不可的。

从宏观经济和科技周期来看,这种现象并非完全例外。在科技革命的早期阶段,总会出现资金涌入"未来"的趋势。AI作为下一代生产力变革的核心,其战略地位决定了资本的激进。这种现象可以类比互联网泡沫时期,但也有本质不同。AI的基础设施建设(如算力、人才)是极其昂贵的,传统种子轮金额确实不足以支撑。这不一定是泡沫,更像是对"超级独角兽"的一种"预付款"。它对创业观的影响是两方面的:一方面,它会激励更多优秀的科学家和工程师投身AI创业;另一方面,它也会拉高创业的门槛,使得那些仅仅依靠"好点子"而非"厚重技术积累"的团队难以获得关注。未来AI领域的竞争,将更多地体现为"资本+人才+算力"的综合实力比拼,而非单点突破。

那啥,我觉得都挺难的。就像我们玩游戏,一边是肝帝拼命冲级只为成为第一,另一边是佛系玩家只求不掉队。AGI这玩意儿,就像是人类的"终极BOSS",谁先"打败"它,谁说了算。极致安全嘛,听着像"裹足不前",A GI还没影呢,你就把自己"锁"起来,那万一别人先搞出来了,你不是白忙活了?平衡路线更像是"边跑边系鞋带",速度是快了,但万一摔个大跟头呢?我个人觉得,考虑到AGI的"不可逆"和"涌现性",安全是底线,但不能成为发展的桎梏。也许应该先"跑起来",让更多人参与到AGI的研发和讨论中,发现问题,再共同解决问题,而不是少数精英闭门造车,那样反而更容易出现 "黑箱"问题。所以,我觉得Murati这种开放和平衡的方式,可能在前期更容易获得关注和参与,从而凝聚更多力量去解决问题。