OpenAI 修改使命宣言引争议:安全与盈利的抉择

OpenAI 修改使命引争议,不再强调安全与非营利,或转向逐利?AI 发展应服务社会还是股东?

原文标题:OpenAI偷偷改使命:不再「造福人类」,安全都删了

原文作者:机器之心

冷月清谈:

OpenAI 近期修改了其使命声明,引发了广泛关注和争议。原使命强调研发“安全造福人类、不受财务回报需求限制”的通用人工智能(AGI),而修改后的版本删除了“安全”和“不受营利需求约束”的关键表述,仅保留“确保通用人工智能造福全人类”。

这一变化被视为 OpenAI 背离了其最初的非营利性、造福人类的承诺,转而更加注重商业利益。一位自称 OpenAI 员工的网友 Peter Girnus 在 X 平台发文,讽刺地列举了 OpenAI 的“七宗罪”,包括修改使命声明、解雇对公司政策提出异议的员工、解散使命对齐团队等。此外,OpenAI 在 ChatGPT 中测试广告、前研究员 Zoë Hitzig 因 ChatGPT 广告可能带来的风险而辞职、以及 OpenAI 在一起涉及青少年自杀的诉讼案中的行为,都加剧了人们对 OpenAI 价值观的质疑。

OpenAI 的一系列举动引发了人们对于 AI 发展方向的担忧,即 AI 究竟应该服务于社会还是股东

怜星夜思:

1、OpenAI 修改使命,不再强调“安全”和“非营利”,你认为这对 AI 行业发展会带来哪些影响?是好是坏?
2、文章中提到 OpenAI 解散了使命对齐团队,并给予团队负责人一个新的头衔“首席未来学家”,你怎么看待这种操作?这仅仅是换个说法,还是反映了 OpenAI 内部价值观的转变?
3、OpenAI 在 ChatGPT 中测试广告,前研究员 Zoë Hitzig 因此辞职,你怎么看待 AI 模型中引入广告的行为?这会带来哪些潜在风险?

原文内容

Image
机器之心编辑部

全球最知名的 AI 公司,再次陷入了内乱。


最近,人们发现 OpenAI 在官方申报文件中对其使命声明(Mission Statement)进行了重大删改。


其中,「AI 安全造福人类、不受营利需求约束」的核心承诺不复存在,被大众视为,背离了 2015 年成立之初「研发非营利性、造福人类的通用人工智能(AGI)」的初衷。


资料显示,在 2022 年至 2023 年的税务文件中,OpenAI 明确将公司的使命宣言定为构建 「安全造福人类、不受财务回报需求限制」的通用人工智能,而在 2025 年底提交的最新税务文件中,删去了「安全」和「不受营利需求约束」的关键表述,仅保留「确保通用人工智能造福全人类」。


这意味着未来,公司发展将不再因 AI 安全性而受限,正式将营利性纳入考量,且将利润置于产品安全之上……




OpenAI 最近的新闻经常与盈利缺口联系在一起,ChatGPT 加广告的行为还引来了竞争对手的吐槽。在这样的背景下还要改自己的大方向,让人不免有了不好的联想。


这一系列操作引发网友不满与吐槽,以此为导火索,近日,一名自称 OpenAI 员工的网友 Peter Girnus 在 X 上发帖,以一种极尽讽刺的口吻细数了 OpenAI 的「七宗罪」。



Peter Girnus 对 OpenAI 的做法很是不满,在他看来,没有新闻稿、没有博客文章,也没有公告,只有一份国税局表格,就这样「轻飘飘」地把公司使命修改了。


从 2022 年 OpenAI 将「安全」加入公司使命,再到 2024 年将其删除,「安全」作为 OpenAI 制度性承诺的完整寿命仅仅两年,「这比一届国会任期短,也比一份汽车租约短,却比我们大多数安全团队的存在时间都长……」


而关于 OpenAI 同时也将「不受营利需求约束」这句话删除,Peter Girnus 戏谑地调侃,「这个更容易解释」,OpenAI 确实受到了产生财务回报需求的约束,预计 2026 年将亏损 140 亿美元,目前公司正在寻求 1000 亿美元的新融资,估值高达 5000 亿美元,并正迈向 8000 亿美元,且正在筹划一次 IPO,或将公司估值推至 1 万亿美元。


最新消息显示,截至 2026 年 2 月初,OpenAI 正与软银洽谈追加 300 亿美元的投资,并有望从亚马逊、英伟达和微软三家公司获得总计高达 600 亿美元的投资。


所以,「不受约束这个词并不准确,我们删除了不准确的表述,这是良好的公司治理。」


但 OpenAI「良好的公司治理」并不局限于此。


2026 年 1 月,OpenAI 产品政策副总裁 Ryan Byermaster 遭到解雇,理由是对公司一名男性同事存在性别歧视,Ryan Byermaster 否认了这一指控,但公司没有进一步说明。耐人寻味的是,Ryan Byermaster 曾反对 OpenAI 为讨好部分用户而引入成人内容生成功能的决定,也曾指出公司的儿童安全保护措施不足。


因此,Ryan Byermaster 因性别歧视而遭到解雇,被认为来自 OpenAI 的「反击」……


Peter Girnus 称,如今关于儿童使用 OpenAI 产品的担忧,已不再体现在产品政策部门,因为提出这些担忧的人已经不在这里工作了,「这也被称为重组。」


另外还有的一个「重组」,2026 年 2 月 11 日,OpenAI 解散了使命对齐团队(Mission Alignment Team)的七个人。他们的工作是确保 OpenAI 的发展与公司「安全且有益的 AGI」使命保持一致。如今,使命里已经没有「安全」这个词了,所以团队也将不存在了。


而团队负责人 Joshua Achiam 并没有被解雇,只是被重新分配了岗位,新头衔是「首席未来学家(chief futurist)」。


对此,Peter Girnus 说道,「请你仔细体会这个头衔,那个原本负责让我们与安全使命保持一致的人,现在的工作是『思考未来』…… 不是对齐未来、也不是守护未来,只是思考未来。我们在一家连描述现状都需要律师在场的公司里,付钱给一个人去想象未来。」


据了解,Joshua Achiam 接替的是 2024 年离开的 Jan Leike,后者曾负责超级对齐团队 —— 那个团队也解散了。Jan Leike 曾公开表示,安全已经让位于产品……


而当初与 Jan Leike 共同领导超级对齐团队的是 OpenAI 联合创始人 Ilya Sutskever,众所周知,他在 2024 年就离开了 OpenAI。理所当然的,他们都离开后,团队就解散了。


总的来说就是,OpenAI 先是成立了一个超级对齐团队,解散了;然后成立使命对齐团队,解散了;紧接给予使命对齐团队负责人一个新的头衔 —— 首席未来学家,使命是「思考未来」……


「我们的命名体系演进得比安全研究还快。」Peter Girnus 说道。


最近,关于 OpenAI 还有一个争议,就是 OpenAI 正式开始在 ChatGPT 中测试广告了,而就在开始测试的当天,前 OpenAI 研究员 Zoë Hitzig 正式辞职。她是一位经济学家,同时也是一位出版过作品的诗人,在 OpenAI 工作了两年,参与公司 AI 模型构建和定价方式的设计工作。


她发表公开文章表示,ChatGPT 上的广告十分危险,这并不是说广告本身不道德,而是 ChatGPT 所掌握的数据性质使得在上面投放广告存在特殊风险。


对此,Peter Girnus 调侃,「她把我们与 Facebook 作比较,我认为这个比较不公平。Facebook 花了很多年才开始无视自己的研究人员,而我们的效率高得多……」


而就在 Zoë Hitzig 离职的同一时间段,Anthropic、xAI 等公司的部分 AI 研究者也纷纷离职,引发网友热议,对此,有媒体对其进行系列报道 —— 高级 AI 员工持续离职,并对各自公司内部情况发出警告。


据 Peter Girnus 透露,当 OpenAI 了解了这些信息后,使用标准的公关流程处理了这个头条新闻,并用 ChatGPT 查出了到底是谁泄露的消息……


这让 Peter Girnus 想起了一起诉讼案件。


2024 年 9 月,一个名叫 Adam 的 16 岁男孩开始使用 ChatGPT 写作业。11 月的时候,他开始向聊天机器人倾诉自杀念头。2025 年 4 月,他结束了自己的生命。


他的父母 Matthew 与 Maria Raine 于 8 月提起诉讼,指控 OpenAI 从 GPT-4o 中移除了安全协议 —— 这些协议本可以在检测到自杀意念时自动终止对话,他们指控 OpenAI 移除这些协议是为了增加用户参与度。


「我不被允许讨论诉讼的细节。但我被允许告诉你们在诉讼提起后我们做了什么。」Peter Girnus 说道。


「我们索要了该家庭追悼会的录像,我们索要了 Adam 过去五年的导师名单,这家的律师用了『卑鄙』这个词。我们的律师用了『常规流程』这个词。」


而就在提出这些取证要求的同一个季度,OpenAI 提交了带有新使命宣言的纳税申报表,是的,就是那个没有「安全地」一词的使命宣言……


在 Peter Girnus 的帖文下,一位网友评论:也许到明年的时候,OpenAI 的使命就将是「一家专注于 AGI 的公司」;十年后,AI 填表写道:ASI(超级人工智能)致力于服务 ASI;十一年后一切皆空:OpenAI 被终结,因为 ASI 经过计算得出结论:如果没有「生命」或「有意识的存在」,计算本身就失去了方向和意义。


对此,Peter Girnus 回复:照这个速度,到 2040 年,可能就只剩「AI」了;到 2050 年,AI 就会自己报税,并把「人类」作为多余词汇删除……



不「造福人类」的 AI 愿景,是我们想要的吗?


参考内容:

https://x.com/gothburz/status/2023764119791562897

https://theconversation.com/openai-has-deleted-the-word-safely-from-its-mission-and-its-new-structure-is-a-test-for-whether-ai-serves-society-or-shareholders-274467



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

感觉AI广告最可怕的地方在于它太懂你了,它会根据你的情绪、习惯,甚至是你自己都没意识到的需求来投放广告,让你防不胜防。这就像一个隐形的操纵者,慢慢控制你的思想和行为。

这让我想到了硅谷的’Bro Culture’,充斥着性别歧视和权力压迫。OpenAI这次的处理方式,很难不让人往这方面联想。希望他们能认真反思,而不是用公关手段掩盖问题。

谢邀,利益相关,匿了。只能说,不盈利,真的会死。技术理想再美好,也需要资金支持。但我觉得OpenAI这次吃相确实有点难看,步子迈得太大了,之前的承诺现在看来就像个笑话。希望其他的AI公司能引以为戒,别重蹈覆辙。

这问题问得好!我觉得这就像一把双刃剑。一方面,盈利驱动可能加速技术创新,毕竟有了钱才能更好地投入研发嘛。但另一方面,如果过于追求利润,可能会忽略一些潜在的安全风险和伦理问题,导致AI发展失控也说不定。就像咱们小时候玩游戏,氪金是变强了,但游戏体验可能也变味了。

商业化是趋势,但“至上”就绝对了。我觉得应该区分“生存性商业化”和“扩张性商业化”。前者是为了活下去,后者是为了更快活。OpenAI现在明显是后者。而且伦理也分很多种,安全是伦理,信息透明也是伦理,哪个更重要?或者说哪个更容易量化和执行?这里面可操作空间太大了。

我认为,AI公司需要从一开始就将伦理道德融入到产品设计中,而不是事后补救。例如,可以通过建立伦理委员会、开展伦理培训、以及与伦理学家合作等方式,来确保AI技术的开发和应用符合伦理标准。同时,还需要加强用户教育,提高用户对AI风险的认知,让用户能够更好地保护自己的权益。

我认为这是一种信号,表明OpenAI的重心发生了转移。过去可能更强调安全和伦理,现在可能更侧重于技术创新和市场扩张。企业要在创新和伦理道德之间取得平衡,需要从组织文化上入手,将伦理道德融入到企业的价值观中,并设立明确的责任机制。此外,还需要加强与社会各界的沟通,及时了解公众的担忧和诉求。

这事儿得辩证地看。一方面,OpenAI需要生存,盈利是必须的。另一方面,安全底线不能破。我觉得其他公司会观望,然后根据市场反馈和自身技术实力来决定。最理想的情况是,大家在安全的前提下,寻找盈利模式,而不是反过来。

我个人觉得这肯定不是什么好兆头。AI 发展本来就有很多不确定性,如果连 OpenAI 这种领头羊都开始追求短期利益,那谁来保证 AI 的长期安全?以后会不会出现为了抢占市场,大家都不管不顾地把还没完善的技术推出来的局面?

我作为一个普通用户,最担心的就是隐私问题。AI 模型掌握了我们大量的数据,如果这些数据被用于精准投放广告,那我们的隐私就完全暴露在广告主面前了。想想都觉得可怕!

嘶…这让我想起了电影里的桥段,当科技公司不再考虑伦理的时候,就是灾难的开始…希望 OpenAI 只是务实了一点,别真的走上邪路啊!

我觉得这绝对不仅仅是换个说法那么简单。解散使命对齐团队,说明 OpenAI 已经不再把“安全”和“造福人类”作为首要目标了。“首席未来学家”这个头衔,听起来更像是一种公关手段,用来掩盖他们价值观的转变。简直是…emmm…新瓶装旧酒?

AI 模型引入广告,短期内可能会增加收入,但长期来看,可能会损害用户体验,甚至影响模型的公正性。如果广告主可以通过付费来影响模型的输出结果,那 AI 就不再是客观中立的工具了。

害,这不就是“大数据杀熟”的 AI 版吗?以后 AI 会不会根据你的喜好,推送你根本不需要的东西?或者更过分一点,直接操控你的消费行为?感觉以后要防着 AI 比防着人还难…

从组织行为学的角度来看,这种做法很常见。当一个部门的职能不再重要时,最好的办法就是解散它,或者将其并入其他部门。给予负责人一个新的头衔,也是为了安抚人心,避免内部出现动荡。OpenAI 的做法,只能说明他们已经把重心放在了其他方面,比如盈利。

从商业角度来看,OpenAI 的选择可以理解。毕竟研发需要大量资金,盈利是可持续发展的必要条件。但从伦理角度看,AI 的发展确实应该把安全放在首位,否则可能会带来无法挽回的后果。这其中的平衡点,可能需要全社会共同探讨。

细思极恐… 这不就是把“安全员”变成“幻想家”吗?以后谁来监督 AI 的发展方向?难道指望“幻想家”用爱发电吗?OpenAI 这波操作,真是让人看不懂…