GPT-5 核心推手离职背后:OpenAI 的商业化转型与 AI 人才的新选择

OpenAI核心人员离职,揭示其战略从技术转向商业落地,Anthropic成人才新选择。AI发展路线面临重塑。

原文标题:GPT-5核心推手闪电跳槽,Anthropic CEO高调炫耀员工留存碾压OpenAI,“AI第一公司”光环崩塌?

原文作者:AI前线

冷月清谈:

OpenAI后训练负责人Max Schwarzer离职加入Anthropic,引发业界对OpenAI战略重心转变的关注。文章指出,OpenAI正从追求模型参数规模转向关注商业落地和用户体验,例如优化推理、降低幻觉、嵌入Agent能力等。这一转变也导致了OpenAI内部对“后训练”的定义分歧,部分研究者认为其应服务于AGI的安全,而非仅为商业化服务。OpenAI在商业和政治布局上动作频频,包括研发代码托管平台挑战GitHub,以及与五角大楼合作,显示出其向“基础设施级平台”演化的野心。然而,这种快速扩张也面临资金压力和伦理风险。人才流动方面,Anthropic凭借对AI安全和伦理的坚持,吸引了大量OpenAI的研究人员,形成了人才迁徙现象。文章认为,OpenAI正在转变为AI时代的微软,而Anthropic则可能成为AI时代的贝尔实验室。

怜星夜思:

1、OpenAI战略重心转向商业落地,是否意味着AGI的探索会放缓?这种转变对整个AI领域的发展是好是坏?
2、OpenAI拥抱五角大楼的订单,引发了伦理争议。在商业利益和伦理道德之间,AI公司应该如何权衡?
3、Anthropic吸引OpenAI人才,是否意味着AI领域正在出现新的“人才迁徙线”?这种人才流动会对AI行业的格局产生什么影响?

原文内容

  作者 | 允毅

在国内科技圈被阿里 Qwen 技术负责人林俊旸离职的消息刷屏时,硅谷的一则人事变动却显得异常安静。

OpenAI 后训练负责人、GPT-5 系列的核心推手 Max Schwarzer 宣布离职,转身加入 Anthropic,回归一线研究员身份。


这一离职时间点尤为微妙。此前 Open AI 与 Anthropic 两家公司正处在对垒态势中,OpenAI 接下了 Anthropic 曾明确回避的五角大楼订单。此消息一出,引起民众强烈反弹,ChatGPT 短期卸载量随之激增 295%。

在商业版图扩张与伦理争议并存的十字路口,作为掌控模型效果的关键人物,Max Schwarzer 在升任研究副总裁仅 7 个月后便选择离开。这本身就是一个强烈的信号:OpenAI 正在全速驶向商业化的未来,或许已不再是纯粹研究者心中的理想之地。

Max Schwarzer 的离开并非孤例。她在离职声明中坦言,许多她欣赏的同僚已身在 Anthropic。

比如 OpenAI 联合创始人、后训练负责人、ChatGPT “对话能力”的缔造者 John Schulman,超级对齐团队负责人、曾试图为超越人类的 AI 建立安全围栏的 Jan Leike,OpenAI 联合创始人、极客型算法科学家 Durk Kingma......

这揭示了一条正在成形的“人才迁徙线”,这些技术领袖正陆续从 OpenAI 位于旧金山 Mission 区的总部撤离,向着更强调“宪法级 AI”与安全研究的 Anthropic 汇聚。

而 Max Schwarzer 在 Anthropic 的新方向是强化学习(RL),这正是她曾主导 GPT-o1 时的核心领域,重在逻辑推理,旨在突破模型的思考上限。这种对“能力边界”的执着,与 OpenAI 当下的产品策略形成了鲜明反差。

回顾近期 GPT-5 系列的迭代路径,一个明显的变化是,OpenAI 的研发重心正在从单纯拓展模型的参数边界转向解决商业落地的“最后一公里”问题。

无论是推理优化、幻觉降低,还是嵌入 Agent 能力与企业级部署,GPT-5 系列的目标都指向了“可控、可靠、可规模化”。这一趋势在最新推出的模型 GPT-5.3 Instant 上尤为明显,该模型致力于体验的优化与情商的提升。显然,一场关乎“用户体验”新一轮竞赛已经悄然打响。

如果将视野拉大,看 OpenAI 近期的一系列动作,从签下五角大楼的政府订单,到将推出取代 GitHub 的代码托管平台,从模型提供商向开发者工具生态扩张,这其实都在讲述同一个故事:

OpenAI 正处于战略转型的关键时期,它要变成一个具有全球影响力、深度嵌入商业与政府体系的 AI 平台型巨头。

  产品战略的转向:
从“参数军备赛”到“体验护城河”

从 GPT-4 系列到 GPT-5 系列的迭代,可以清晰看到,Open AI 正在从“让 AI 更聪明”,转向 “让 AI 更值得信任”。

这种转变并非偶然,而是在经历了长达两年的“参数军备竞赛”后,OpenAI 意识到,单纯的模型规模增长正面临边际效应递减的困境。

正如 OpenAI 前首席科学家 Ilya Sutskever 所言:“只靠 Scaling Law 的时代已经结束,我们重新回到了探索与发现的阶段。”

过去模型大一倍,能力上一个台阶;如今模型大十倍,效果提升可能不足 10%。盲目扩参性价比变得极低,而在后训练与推理环节做优化,反而能带来极高的投入回报。

然而,这里存在一个巨大的悖论,既然“后训练”已成为 OpenAI 的新战略高地,为何 Max Schwarzer 等后训练领域的顶级掌舵人,却纷纷选择出走?

这恰恰揭示了 OpenAI 内部对于“后训练”定义的根本性分歧,是“为了真理”,还是“为了产品”。在科学家眼中,后训练本应是通往 AGI 的最后一道安全闸。但在商业化加速的 OpenAI 管理层看来,后训练正在被重新定义为一种“高级客服培训”。

此前,GPT-5.2 版本那种“爹味十足”的说教语气或过度易被触发的安全防御,已经激怒了大量用户,在社交媒体上掀起实质性退订潮。这让 OpenAI 痛切地意识到,糟糕的交互体验正在抵消模型智力的优势。

于是,在最新推出的 GPT-5.3 Instant 中,巨大的算力资源被从“逻辑推理”倾斜到了更务实的“工程修补”上:如何让语气更圆滑?情商更高?对话更流畅?它不再试图成为一个“全知全能的神”,而是努力成为一个“甚至懂你潜台词的人”。

至此,Open AI 后训练的目标,从“防止 AI 毁灭世界”,降维成了“防止 AI 惹上官司”。

OpenAI 的这种商业化转向,也正对应着整个行业评价尺度的重写。

年初,吴恩达提出的“图灵 -AGI 测试”不再关心 AI “会不会解题”,而是看它能否在路径不可控的条件下把一件事真正做完;斯坦福大学的《2026 AI 预测报告》与谷歌云的 ROI 报告,也都直指同一个风向标:别谈模型智力上限,谈企业中的落地效益。

对于企业客户而言,账算得很清楚:一个能考满分但偶尔胡言乱语的天才,远不如一个考 90 分但情绪稳定、逻辑自洽的助手有价值。降低企业的合规风险,这才是企业级落地的关键门槛。

正如苹果从不堆砌硬件参数却能赢得用户一样,OpenAI 也试图通过极致的工程化打磨证明,在商业世界里,“体验决胜”远比“参数堆叠”更能留住客户,这也是其商业化转向的核心逻辑。

  比商业与政治布局加速:
向“基础设施级平台”演化

OpenAI 的技术转向只是冰山一角,其水面之下潜藏的,是 Sam Altman 在政治与商业的双重布局。

这家诞生于“开源、公益、推动 AGI 造福人类”理想的公司,正在疯狂吞噬算力、数据与资本,其所有动作的核心,都围绕一个关键词“控制权”。

据 The Information 爆料,OpenAI 正秘密研发一款代码托管平台,意图直接取代微软旗下的 GitHub,成为全球新一代代码托管与生成中心。

尽管 OpenAI 的工程师对外宣称,是对 GitHub 近期频繁宕机的不满。但从结果来看,此举更像是争夺软件工业的“底层定义权”。

目前,OpenAI 的 Copilot 不过是挂在 IDE 上的“外挂”,始终依附于微软的开发者生态。而它真正想要的,是让 AI 成为编程的“原生环境”。

开发者在其平台上完成代码托管、生成、调试、部署的全流程,OpenAI 则通过掌控这一闭环,收割最鲜活、最核心的工程数据,构建“数据 - 模型 - 应用”的自循环体系。

Open AI 也完成从 AI 模型提供者向开发者工具生态的扩张。

而更具争议的一步,则是 OpenAI 拥抱五角大楼的政治“投名状”。

2024 年初,OpenAI 更新了其使用政策,删除了此前明确禁止“军事和战争用途”的条款。这一调整并未高调宣布,但被多家媒体注意到。

随后,OpenAI 任命前美国国家安全局(NSA)局长 Paul Nakasone 进入董事会,并成立“安全与保障委员会”。

这些动作被普遍解读为 OpenAI 加深与美国国家安全体系合作的信号。

而在最新“五角大楼订单”事件中,Anthropic 选择坚守“宪法级 AI”的边界,拒绝让其 AI 模型用于大模型国内监控或全自动武器,最终被列为“国家安全供应链风险。而 OpenAI 却很快便与五角大楼达成协议,接受了五角大楼“符合适用法律即可使用”的核心框架。虽然增设三条安全红线,并争取到“云端部署、自主掌控安全栈”的技术防护权,但协议措辞仍为潜在监控留下解释空间。

OpenAI 的接手,不仅是一次商业截胡,更是一次政治站位。这表明 OpenAI 已准备好承担作为“国家级 AI 基础设施”的复杂性。

毕竟,在 2 亿美元的国防预算面前,企业级 SaaS 的收入显得微不足道。能成为美军的供应商,则获得了“大而不能倒”的政治豁免权。

而在最新一轮融资中,OpenAI 融资规模高达 1100 亿美元,堪称 AI 史上最大的一笔融资,OpenAI 投后估值直逼 8400 亿美元,直逼万亿俱乐部。

Open AI 计划拿这笔钱扩大人工智能基础设施建设,堆出一道竞争对手无法翻越的算力高墙。这正是平台经济“网络效应”的极致运用:通过垄断算力、数据等核心资源,形成“用户聚集—资源强化—更多用户涌入”的自我强化循环,最终实现市场垄断,这也是 OpenAI 追求“控制权”的核心逻辑之一。

但在这场看似风光的狂奔背后,悬着一把致命的达摩克利斯之剑,极度疯狂的烧钱速度,与尚未闭环的商业模式,构成了 OpenAI 最大的隐患,

如今的 OpenAI 正深陷政府安全需求、伦理风险、商业利益三方博弈之中。它正在进行一场人类商业史上前所未有的豪赌,在资金链断裂之前,强行跑通商业闭环。

  人才流动与文化摩擦:
战略重心转变下的必然分化

当企业的基因突变,必然引发细胞的代谢。Open AI 的高层震荡,是战略重心转移后的必然分化

随着 ChatGPT 成为拥有数亿用户的超级应用,OpenAI 内部的引力场发生了根本性反转:工程化与产品化开始主导决策,纯粹的研究探索被迫后退。

多位 OpenAI 高管和研究负责人在近几年离职,包括 CTO、后训练负责人、研究负责人。对于像 John Schulman 或 Max Schwarzer 这样的技术原教旨主义者来说,当算力资源开始优先向产品部署而非前沿探索倾斜,当安全团队的权限被商业交付节点挤压,离开便成了唯一选择。

Anthropic 成为了这些“流亡者”的庇护所。那里更像 2019 年之前的 OpenAI:更慢的发布节奏、更严苛的安全审查、对 Scaling Laws 理论更为痴迷。

在风险投资公司 SignalFire 最新发布的 2025 人才趋势报告中,Anthropic 顶尖 AI 人才的留存率达到 80%,而且工程师从 OpenAI 跳槽到 Anthropic 的可能性是从 Anthropic 转投 OpenAI 的 8 倍。


而 Anthropic 的首席执行官 Dario Amodei 更是夸耀,自家公司有能力抵御竞争对手“挖墙脚”,他们不会理会竞争对手,如 Meta 花十倍薪水挖角的伎俩,因为大部分员工都会因为“使命”自愿留下。据相关人士透露,在此诱惑下,只有两名员工辞职去了 Meta,其留存率远高于 Open AI。

这种人才迁徙也表明了 OpenAI 正在筛选掉“纯粹研究者”,留下“产品经理”和“工程师”。 它聚集了最优秀的产品化人才,他们擅长将技术变现,打造像 ChatGPT 这样改变世界、体验极致的产品。OpenAI 正在变成 AI 时代的微软。

而 Anthropic 正在吸纳最纯粹的“科学家”和“安全专家”。 它聚集了致力于探索 AGI 理论边界和安全底座的头脑,似乎成为 AI 时代的贝尔实验室。

这不仅仅是两家公司的竞争,更是两条技术路线的赌局。OpenAI 选择了“广度与渗透”,先成为不可或缺的基础设施,赢下市场份额。Anthropic 选择了“深度与边界,赌在未来,赌在安全底座。

OpenAI 近期的“小动作”不断,一边用更少幻觉、更少拒答、更不冒犯的交互把 ChatGPT 打磨成可规模化的“企业级默认入口”,一边又把触角伸向代码托管、政府合同与安全治理,把自己嵌入更硬的生产体系与国家机器。这正在从“模型公司”跨进“基础设施公司”的转变。

而这条路的代价,是信任与文化的再分配:研究者会用脚投票,用户会用卸载表达态度,竞争者会用“更道德”的叙事抢夺心智。

参考链接:

https://x.com/max_a_schwarzer

https://www.theinformation.com/articles/openai-developing-alternative-microsofts-github

https://www.reuters.com/business/openai-is-developing-alternative-microsofts-github-information-reports-2026-03-03/

https://openai.com/zh-Hant/index/gpt-5-3-instant/

声明:本文为 AI 前线整理,不代表平台观点,未经许可禁止转载。

会议推荐

2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设!

QCon 北京 2026 已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。开往 2026 的 Agentic AI 专列即将启程!汇聚顶尖专家实战分享,把 AI 能力一次夯到位!

今日荐文

图片

你也「在看」吗?👇

问:OpenAI 的商业化转型是否会牺牲其在 AI 安全研究方面的投入?这种转变对于 AI 技术的长期发展是好是坏?

这就像一个跷跷板,商业化和安全研究总是要有所取舍。完全放弃商业化,可能连生存都成问题,更别说发展了。但如果完全不顾安全,那AI发展可能就会失控。所以,关键在于找到一个平衡点,既能保证企业的盈利,又能确保AI的安全可控。我觉得现在下结论还为时过早,让我们拭目以待吧。

问:Anthropic 坚持“宪法级 AI”的发展路线,这种策略在商业竞争中是否具有优势?或者说,在追求 AI 伦理和安全的同时,Anthropic 可能面临哪些挑战?

与其说Anthropic在搞商业竞争,不如说他们是在进行一场社会实验。他们想证明,AI是可以既强大又安全的,是可以符合人类价值观的。这种理想主义情怀是很可贵的,但现实往往是残酷的。Anthropic需要找到一种方法,将伦理和安全转化为实实在在的商业价值,才能在这个竞争激烈的市场中生存下去。

“宪法级 AI” 的提法,体现了对 AI 发展的高度责任感。AI 的发展必须建立在安全、可控的基础上,否则再强大的 AI 也可能成为灾难。Anthropic 的做法,值得肯定和借鉴。希望他们能真正探索出一条安全可靠的 AI 发展道路。

如果从AGI(通用人工智能)的终极目标来看,可能是一种倒退。但如果从商业角度和社会责任来看,这种转变是必要的。毕竟,AI最终是要服务于人类的,安全性、可靠性是基础。只是希望OpenAI在追求商业价值的同时,不要完全放弃对AGI的探索,毕竟星辰大海还是很吸引人的。

其实我觉得Anthropic的策略有点像“小而美”,专注于某个细分领域,把产品做到极致。OpenAI 则是走“大而全”的路线,试图打造一个 AI 帝国。两种模式各有优劣,但对于初创公司来说,“小而美”可能更容易成功。毕竟,资源有限,不如集中力量办大事。

我觉得这很难简单定义为进步或倒退,这其实是AI发展的必然阶段。早期大家追求的是技术突破,现在更关注实际应用和伦理问题。问题不在于方向的改变,而在于如何平衡技术探索和商业需求,避免矫枉过正。而且,值得信任本身也是一种“聪明”啊,毕竟谁会信任一个动不动就胡说八道的“天才”呢?

除了价值观的吸引,Anthropic 的企业文化也很重要。文章提到 Anthropic 更像 2019 年之前的 OpenAI,节奏更慢,审查更严苛。这说明 Anthropic 更注重长期发展,而不是短期利益。这种稳扎稳打的企业文化,更容易吸引那些追求长期价值的优秀人才。反观某些公司,996、内卷、PUA,留不住人是必然的。

我觉得OpenAI的选择是可以理解的。一方面,与军方合作可以获得更多的资源和支持,加速技术发展;另一方面,也可以参与制定AI在军事领域的应用规范,避免技术被滥用。当然,这其中存在伦理风险,需要OpenAI保持警惕,坚守底线。至于平衡商业利益和伦理道德,我觉得最重要的是要有敬畏之心,时刻牢记科技向善的原则。

这就好比一个是武当派,一个是少林派。武当派注重内功修炼,讲究以柔克刚,希望通过提升自身的实力来战胜对手。OpenAI 就像武当派,注重基础研究和技术创新,希望通过提升自身的实力来引领 AI 行业的发展。少林派注重外功修炼,讲究刚猛有力,希望通过快速出拳来击败对手。Anthropic 就像少林派,注重市场推广和商业化,希望通过快速抢占市场来赢得 AI 领域的竞争。

Anthropic这种坚持原则的做法很让人敬佩!但商业世界很残酷,如果不能盈利,再美好的愿景也难以实现。他们需要找到既能保证AI安全,又能吸引投资和客户的商业模式,挺难的。

应对方法嘛,要么加入,要么超越。小公司抱团取暖,开发自己的开源生态,和大佬错位竞争。大公司就得有自己的核心技术,死磕到底。当然,最理想的情况是出现一个“AI领域的Linux”,打破垄断。

我觉得OpenAI的商业化转型是必然的,毕竟公司要生存。但如果过度追求短期利益,忽视AI安全和伦理,长期来看肯定会影响其声誉和技术发展。就像建房子,地基不稳再高的楼也会塌。

学术角度看,这涉及到一个经典的“探索与利用”问题。OpenAI在早期探索阶段积累了大量技术,现在进入利用阶段无可厚非。但关键在于如何在两者之间找到平衡点,既能通过商业化获得持续发展的资金,又能保证AI发展的正确方向。理想状态是成立专门的伦理委员会进行监督,但实际操作中可能存在利益冲突。

优势肯定是有的,情怀嘛,这玩意儿最能吸引人才了。挑战也明显,不接地气,商业变现慢,容易被OpenAI这种“实用主义者”弯道超车。不过,万一哪天AI真的威胁到人类安全了,Anthropic可能就变成救世主了!

如果OpenAI真的变成了AI领域的基础设施,那就像微软当年垄断操作系统一样,其他AI公司可能就只能在其生态下生存了。这对整个行业的创新是很不利的。

我觉得其他AI公司应该避免与OpenAI正面竞争,而是寻找差异化定位。比如,专注于特定行业或应用场景,或者开发更开放、更灵活的AI平台,让开发者能够自由定制和扩展。

这个问题没有标准答案。每个公司都有自己的价值观和底线。我觉得关键在于透明化,OpenAI应该公开与军方合作的具体细节,接受公众监督。

我的看法比较简单粗暴:先活下来再说!商业公司嘛,生存是第一要务。只要不触犯法律,不违背社会公德,适当的商业变通是可以理解的。道德问题,交给哲学家们去辩论吧。

我觉得可以参考阿西莫夫的机器人三定律,AI公司在设计和应用AI技术时,一定要把安全性和伦理道德放在首位。商业利益固然重要,但不能以牺牲人类的福祉为代价。