OpenAI 与五角大楼达成协议:AI 安全红线与军方合作的平衡

OpenAI 宣布与五角大楼合作,尽管强调了安全条款,但其伦理立场转变引发了争议,让人思考AI公司如何在利益与伦理之间权衡。

原文标题:刚刚,奥特曼光速滑跪背刺Anthropic,OpenAI高调签下军方大单

原文作者:机器之心

冷月清谈:

OpenAI 宣布与美国五角大楼达成协议,将在其机密网络中部署 AI 模型。此举引发了关于 AI 伦理、安全底线以及与军方合作的广泛讨论。此前,奥特曼曾公开表示反对将 AI 用于大规模监控或自主致命武器,并对 Anthropic 坚持安全原则表示信任。然而,OpenAI 此次与五角大楼的合作,虽然声称已将安全条款纳入协议,包括禁止国内大规模监控和在武器使用中保持人类的责任,仍引发了对其立场转变的质疑。有评论指出,OpenAI 与五角大楼的合作可能采取了与 Anthropic 不同的策略,即通过援引特定法律和政策来记录具体的安全问题。此次事件也暴露出 AI 公司在商业利益与伦理道德之间的挣扎,以及在与政府部门合作中如何平衡安全与发展。

怜星夜思:

1、OpenAI 与五角大楼的合作,真的能保证 AI 不被用于大规模监控和自主武器吗?技术防护措施真的能防止被滥用吗?
2、为什么 Anthropic 坚持底线被“惩罚”,而 OpenAI 却能达成协议?仅仅是因为奥特曼更会“说话”吗?
3、OpenAI 与五角大楼的合作,对 AI 行业的未来发展会产生什么影响?是会加速 AI 在军事领域的应用,还是会促使行业更加关注 AI 伦理和安全问题?

原文内容

图片
机器之心编辑部

就在后不到 12 小时,剧情发生了戏剧性逆转。


本周,奥特曼在致 OpenAI 员工的备忘录中表示:「我们一直认为,人工智能不应用于大规模监控或自主致命武器,在涉及高风险的自动化决策中,人类应该始终参与其中。这些是我们的主要底线。」


他还在 CNBC 节目中重申:「我个人认为五角大楼不应以《国防生产法》威胁这些公司。尽管我和 Anthropic 公司有很多分歧,但我总体上还是信任他们这家公司,而且我认为他们确实很重视安全。」


可刚刚,奥特曼在 X 上连发三条相同的帖子,宣布 OpenAI 已与美国五角大楼达成协议,将模型部署到他们的机密网络中



奥特曼:我们谈妥了「安全条款」


在帖子中,奥特曼是这么说的:


「在所有互动中,五角大楼都展现出对安全的深切尊重,以及与合作伙伴共同达成最佳结果的强烈意愿。


AI 安全和广泛惠益我们使命的核心。我们最重要的两条安全原则是:禁止国内大规模监控,以及在包括自主武器系统在内的使用武力时,必须由人类承担责任。


五角大楼同意这些原则,并在法律和政策中有所体现,我们已将它们纳入本次协议。


我们还将构建技术防护措施,以确保模型按预期运行,这一点也得到了五角大楼的支持。为保障安全,我们将部署 FDEs 来辅助模型,且仅在云网络上进行部署。我们正在请求五角大楼向所有 AI 公司提供相同的条款,我们认为所有公司都应该愿意接受。


我们已明确表达强烈愿望,希望事态能从法律和政府行动中降级,转向通过合理协议解决。我们始终致力于尽最大努力服务全人类。这个世界复杂、混乱,有时还很危险。」



消息一出,网友炸了锅。


有人讽刺:所以 OpenAI 就这么在差不多 12 小时内,从「我们也有红线」快速转变成「我们的模型已经部署在物价大楼的机密网络上了」?…… 原则固然重要,但最终还是要等到合同敲定才行。话说回来,真到了 AI 辅助的战争迷雾中,谁来真正强制执行「人类对武力负责」这条?



也有网友质疑,要么是五角大楼对 OpenAI 和 Anthropic 采用了不同的标准,要么就是奥特曼在这条推文中故意误导大家。鉴于他过往的历史记录,我更倾向于后者。



还有网友追问,「如果这些条款本质上和 Anthropic 之前提出的差不多,那现在为什么就变得可以接受了呢?我真的很想搞清楚其中的区别到底在哪里。」



Anthropic 因「冒犯」领导层致谈判破裂


据《财富》杂志看到的会议纪要和一位与会消息人士透露,奥特曼在周五下午的全员大会上告诉员工,OpenAI 正与美国五角大楼就使用该公司的 AI 模型和工具达成潜在协议。 不过该合同当时尚未签署。


奥特曼表示,政府愿意让 OpenAI 构建自己的「安全堆栈」,即位于强大的 AI 模型和现实世界应用之间的技术、政策和人为控制的分层系统。如果模型拒绝执行某项任务,那么政府不会强迫 OpenAI 执行该任务。


OpenAI 将保留对技术保障措施实施方式、模型部署方式和部署地点的控制权,并将部署范围限制在云环境而非「边缘系统」(在军事领域,「边缘系统」可能包括飞机和无人机)。


作为一项重大让步,奥特曼告诉员工,政府表示愿意将 OpenAI 提出的「红线」纳入合同,例如不得使用人工智能驱动自主武器、进行国内大规模监控,以及不得替代人类参与关键决策。


据消息人士透露,OpenAI 国家安全政策负责人萨沙・贝克(Sasha Baker)和 OpenAI 政府部门国家安全负责人卡特里娜・穆里根(Katrina Mulligan)也在 OpenAI 全体员工大会上发表了讲话。


其中一位官员表示,Anthropic 与美国政府的关系破裂,是因为 Anthropic 联合创始人兼首席执行官达里奥・阿莫迪(Dario Amodei)冒犯了美国五角大楼领导层,包括发表了一些令五角大楼「不满」的博客文章


同样的条款,两种结果


可见,此次事件最大的争议点在于:Anthropic 因为坚持「底线」拒绝与美国军方妥协,因而受到了惩罚,而 OpenAI 是否全盘接受了军方此前对 Anthropic 的强硬要求?


看起来并不是接受或不接受条款的问题。


我们此前看到的是,美军对 Anthropic 的态度极其强硬,要求其放弃一系列底线,允许其在「所有合法用途」下无条件、无限制地使用 AI。重点在于两点:严禁将其技术用于国内大规模监控,以及人类必须对武力使用负责。Anthropic 拒绝后,直接遭到了特朗普的全面封杀,并被国防部定性为「国家安全供应链风险」。


而在奥特曼高调宣布与五角大楼达成的协议中,军方在面对 OpenAI 时看起来「双标」了,接受了 OpenAI 提出的上述两条安全底线


Altman 在声明中明确指出:「五角大楼同意了这些原则(禁止国内监控和自主武器),将其反映在法律和政策中,并且我们把它们写进了我们的协议里。


在 OpenAI 宣布达成协议后,有人解读认为,为避免任何误解,OpenAI 与五角大楼的合同以「所有合法用途」为基石 —— 这正是五角大楼一直以来坚持的,也是 xAI 所同意的。但正如奥特曼所解释的,该合同引用了某些现有的法律依据,并包含了一些双方共同认可的安全机制。这再次表明,Anthropic 曾被提出过类似的妥协方案,但遭到了拒绝。


即使实质性问题相同,以下两种做法之间也存在巨大差异,OpenAI 同意通过援引特定法律和政策来记录具体的安全问题,而不是把审慎的约束留给科技公司的 CEO。


我们还不清楚 OpenAI 达成的协议与 Anthropic 的预期有何不同,但海格赛斯已经在 X 上转发了奥特曼的声明。


参考内容:

https://x.com/sama/status/2027578652477821175

https://www.cnn.com/2026/02/27/tech/openai-pentagon-deal-ai-systems

https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

最大的风险是无法有效控制 AI 的决策,一旦出现误判或者被恶意利用,后果不堪设想。作为普通人,我们可以关注相关新闻,参与讨论,向有关部门提出建议,还可以参与开源项目,贡献一份力量!

Anthropic 的拒绝可能反映了其对 AI 伦理的更高追求,以及对潜在风险的更谨慎态度。而 OpenAI 的合作则可能更注重实际利益和技术落地。这种差异可能会导致 AI 行业出现分化,一部分公司专注于安全和伦理,另一部分则更积极地推动商业应用。最终,这可能会促进 AI 技术的全面发展,但也需要警惕潜在的伦理风险。

我觉得这个问题挺复杂的。一方面,统一的标准可以规范行业发展,避免出现“劣币驱逐良币”的情况。但另一方面,如果标准过于严格,也可能会扼杀创新,让一些小公司难以生存。关键在于如何在规范和创新之间找到平衡。

这个问题真是灵魂拷问!理性的说,OpenAI 的选择更务实一些。毕竟,在现有框架下,与军方合作可能更有利于推动 AI 技术的发展和应用。但是,从道德层面来看,Anthropic 的坚守底线更令人敬佩。如果是我,我会尽可能寻求一种平衡,既能推动技术进步,又能最大限度地避免潜在风险。

还有一种可能是,他们可能会利用 AI 技术分析社交媒体数据,从而对特定人群进行画像和追踪。这种监控方式更加隐蔽,也更难被发现。所以,即使五角大楼承诺不进行大规模监控,我们仍然需要保持警惕,密切关注他们的实际行动。

我觉得可以参考自动驾驶的责任划分。如果是因为AI算法本身的缺陷导致了错误,那可能需要由OpenAI承担部分责任。如果是人为误用或者滥用,那责任就应该由使用者承担。当然,实际情况肯定会更复杂,需要具体问题具体分析。

这事儿让我想起了“曼哈顿计划”。当时为了对抗纳粹,科学家们争分夺秒地研发原子弹,根本顾不上什么伦理道德。现在的情况可能也类似,AI 技术在军事上的应用可能会带来颠覆性的改变,如果我们不先下手为强,可能会失去战略优势。当然,事后也需要反思,如何避免技术被滥用,建立更完善的监管体系。

我更倾向于 CEO 应该坚守原则,即使这意味着失去合作机会。如果 AI 公司的价值观与政府或军方的要求相冲突,牺牲原则换取利益,最终可能会损害公司的声誉和长远发展。况且,如果 Anthropic 为了合作而违背了自己的原则,今天可能就不会有 OpenAI 什么事儿了。

这事儿挺微妙的。CEO 也是人,要考虑公司生存和发展。完全不妥协可能直接被“封杀”,公司都没了,还谈什么伦理?我的观点是,可以寻求妥协,但核心底线不能破。至于 Anthropic 的 CEO 是不是因为“冒犯”了对方,这中间的水太深了,不好说。

我觉得不一定。总会有一些公司坚持自己的原则,不会为了商业利益而放弃底线。而且,公众的监督和舆论的力量也很重要,可以倒逼企业承担社会责任。

楼上说的有道理,技术防护措施的有效性也值得怀疑。AI 发展这么快,谁知道以后会不会有新的漏洞或者绕过限制的方法?我觉得这次合作 OpenAI 还是过于乐观了。

有没有可能 Anthropic 和军方谈判的时候,不仅仅是技术问题,还涉及到一些更深层次的政治因素?毕竟,科技公司和政府之间的关系是很微妙的。

我觉得 Anthropic 的坚持也未必完全是理想主义。可能有其他方面的考虑,比如担心技术被滥用,或者不希望自己的品牌与战争等负面事件联系在一起。商业公司也要考虑声誉风险,不能只看眼前的利益。