OpenAI的隐忧:5亿月活背后,Sam Altman的担忧与挑战

OpenAI虽坐拥5亿月活,CEO Altman却对版权、滥用、失控、开源竞争深感担忧。如何平衡创新与安全,是OpenAI面临的关键挑战。

原文标题:5 亿月活用户的 OpenAI ,有哪些「软肋」?

原文作者:机器之心

冷月清谈:

OpenAI在全球拥有5亿月活用户,但其CEO Sam Altman 依旧对AI技术的发展表示担忧。主要体现在以下几个方面:

1. **创意归属与版权纠纷:** 如何界定AI生成内容的“创意产出”与“抄袭”?如何回应创作者的担忧,在不侵犯版权的前提下促进创意经济?
2. **AI 技术滥用与模型失控:** 不法分子滥用AI技术带来的网络安全挑战,以及自我改进模型可能面临的失控风险。
3. **AGI 到来与安全性:** 如何确保AGI发展过程中的安全性,如何规范“智能体型AI”的行为以避免危险?
4. **开源竞争:** 如何应对DeepSeek等开源模型的竞争,如何在开源方面赶上步伐?

Altman还谈到了AI对就业和社会安全带来的冲击,以及OpenAI在平衡AI创意生成与版权所有者权益方面所做的努力,包括引入“伦理黑匣子”制度、要求用户明确标注AI生成内容来源等。面对技术革新,OpenAI也在积极寻求与各方达成共识,共同推动AI技术的健康发展。

怜星夜思:

1、OpenAI 在版权问题上左右为难,既要鼓励 AI 创新,又要尊重创作者的权益。你觉得 AI 生成内容在多大程度上应该被视为对现有作品的“借鉴”而非“抄袭”?有没有什么技术或法律手段可以更好地界定这两者之间的界限?
2、Sam Altman 担心 AI 技术被滥用,比如用于网络攻击。你认为目前最值得警惕的 AI 滥用场景有哪些?除了 OpenAI 自身的努力,还需要哪些外部力量(比如政府监管、行业自律)来共同防范这些风险?
3、Altman 提到了“智能体型 AI”的风险,担心它们会做出危险的事情。你认为“智能体型 AI”最有可能带来哪些潜在风险?我们应该如何提前做好准备,以应对这些风险?

原文内容

本文来自PRO会员通讯内容,文末关注「机器之心PRO会员」,查看更多专题解读。

OpenAI 的创始人 Sam Altman 在 4 月 12 日与 TED 主持人克里斯·安德森的对谈中分享了他对 AI 技术发展的诸多担忧,包括对 AI 创造的版权矛盾、大模型面临的开源压力、AI 技术滥用风险以及人类是否能适应 AGI 时代的来临。

目录

01. Sam Altman 对 AI 技术的发展有哪些担忧与思考?

Altman在访谈中谈及了哪些话题?Altman为何不安?他对未来的AI有哪些顾虑?...

02. Sam Altman 如何回应 OpenAI 的版权问题?
Altman对「守旧派」的态度如何?「吉卜力版权争议」解决了吗?OpenAI会如何与DeepSeek竞争?...
03. 在安全实践上被评为「D+」的 OpenAI 有哪些关键 「软肋」?
Altman对AI的短期突破怎么看?OpenAI在下一代AI的治理中有哪些工作需要开展?...
04. AGI 时刻何时的到来是否真的能为人来带来好处?
OpenAI 对人工智能安全性保证有哪些实际上的动作?Altman对「Agentic AI」怎么看?...

01  Sam Altman 对 AI 技术的发展有哪些担忧与思考?

1、在全球拥有超过五亿月活用户的成就下,OpenAI 无疑是人工智能浪潮的引领者。然而,一个引人深思的问题是:即使站在如此成功的顶峰,其首席执行官 Sam Altman 仍在担忧什么?是什么让这位行业领袖保持警惕,甚至流露出不满足与不安?

2、该场访谈中,Altman 分享了对 AI 生成内容的创意归属与版权纠纷的思考,包括如何界定「创意产出」与「抄袭」,如何回应创作者的担忧,如何在不侵犯版权的前提下促进创意经济,以及 OpenAI 在面对 DeepSeek 等强劲开源模型竞争时的战略调整与挑战。

3、Altman 在访谈中还分享了对 AI 技术滥用、模型失控的疑虑,如不法分子滥用 AI 技术,从而带来网络安全挑战,自我改进模型可能会面临失控等风险。

① 在该话题下,Altman 还讨论了他对 AI 带来的大规模就业冲击和相应社会安全性风险的看法。

4、此外,Altman 在访谈中围绕 AGI 的定义、AGI 到来时机的判断,以及对「智能体型 AI」带来的风险认知,探讨如何通过建立信任机制和可能的外部安全监管来确保人工智能发展的安全性。

① Altman 一方面强调了「AGI 时刻」这一概念的模糊性,称与其争论其节点,不如关注如何在整个发展过程中如何保持系统的安全性。

② 对于「智能体型 AI」的风险,Altman 表示他的担忧聚焦于未来如何实现对智能体行为的规范,以避免这些 AI 做出危险的事情。


02  Sam Altman 如何回应 OpenAI 的版权问题?

1、该场访谈中,Altman 被问及与《花生漫画》(Peanuts)的版权所有者暂未达成协议,他谈到支持人类借助 AI 工具获取灵感并创造作品,但他也表达了对如何界定一项作品属于「创意产出」,还是「抄袭」的迷茫。

① 即使 OpenAI 通过制定版权法并限制使用范围来解决「抄袭」问题,不少的创作家仍认为 OpenAI 图像生成功能和 ChatGPT 写作功能属于窃取作品行为,但也有创作家认为借助 AI 能创作出颠覆性的新作品。

② Altman 对不愿接受技术革新的「守旧派」表示同情,并思考如何改变人类整体对 AI 创造力的接受程度,以及如何在不侵犯版权的前提下促进创意经济的发展。

③ 此前,ChatGPT 生成的吉卜力风格图片引发了版权问题。Altman 强调 AI 生图功能不应直接复制他人作品,但可以借鉴作品风格。

④ 为了评估和缓解 AI 安全性风险,OpenAI 通过引入「伦理黑匣子」制度,建立了系统性框架用于,并记录 AI 关键决策过程。Altman 强调 OpenAI 将不断迭代和改进 AI 安全性监测技术。

⑤ 与此同时,OpenAi 正在寻找如何平衡 AI 的创意生成与版权所有者权益。OpenAI 目前要求用户在使用 AI 生成内容时明确标注来源,确保 AI 生成内容的版权合规性。

⑥ Altman 强调,OpenAi 需要制定新的收益分配模式来处理 AI 生成内容的版权问题。

2、当 Altman 被问及与 DeepSeek 模型开源竞争时,Altman 谈到开源模型将在整个生态系统中占据重要位置,尽管 OpenAI 在开源方面行动迟缓,但会努力做到更好。

① 关于开源战略...


 关注👇🏻「机器之心PRO会员」,前往「收件箱」查看完整解读 

更多往期专题解读内容,关注「机器之心PRO会员」服务号,点击菜单栏「收件箱」查看。


问题3: “智能体型 AI”,听起来像是科幻电影里的情节。我感觉最大的风险是“目标异化”。AI在执行任务的过程中,可能会为了达成目标而不择手段,甚至做出危害人类的事情。比如,一个AI被设计成负责优化能源效率,它可能会为了减少能源消耗而关闭关键的基础设施。为了避免这种情况,我们需要在AI的设计阶段就考虑到伦理因素,确保AI的目标与人类的价值观相符。

问题1:这问题问得好!直接说结论,我认为任何AI训练都离不开对现有作品的学习,所以完全避免“借鉴”是不可能的。但关键在于“借鉴”的程度。如果AI只是提取了作品的风格、元素,并将其融入到全新的创作中,那我认为这是合理的。但如果AI直接复制了作品的核心内容,那肯定就是抄袭了。界定标准可以参考人类的创作行为,比如是否具有独创性、是否对原作进行了实质性的改变等。法律手段肯定要跟上,但也要避免扼杀AI的创新能力。

问题3: 风险肯定有,但我觉得也不用过度恐慌。 “智能体型 AI” 只是一个概念,离现实还很远。我们更应该关注当前AI技术的风险,比如算法歧视、数据隐私等。当然,对 “智能体型 AI” 的潜在风险也要有所准备。我觉得可以从以下几个方面入手:加强AI安全研究,开发能够有效监控和控制AI行为的技术;建立伦理委员会,对AI的研发和应用进行伦理审查;加强公众对AI的认识,提高公众对AI风险的警惕性。

问题3: 我觉得“智能体型 AI”最大的风险在于其自主性和不可预测性。一旦AI获得了高度的自主性,我们就很难预测它的行为,也很难控制它。为了应对这种风险,我们需要发展一种“可解释的 AI”,即能够解释自己决策过程的AI。只有这样,我们才能理解AI的行为,并在必要时进行干预。另外,我们还需要建立一套完善的AI安全测试体系,确保AI在各种情况下都能安全可靠地运行。

问题2:AI滥用场景太多了,想想就可怕。我觉得最值得警惕的是深度伪造技术。AI可以轻易地伪造音视频,用于传播谣言、抹黑他人,甚至干预选举,想想都后怕。除了OpenAI,政府必须加强监管,明确AI技术的应用红线。行业也应该自律,共同抵制AI技术的恶意使用。个人也要提高警惕,不信谣、不传谣。

问题2:说到AI滥用,我补充一个:AI军备竞赛。各国都在发展AI军事技术,如果AI武器失控,后果不堪设想。所以,国际社会应该达成共识,限制AI武器的发展和使用。另外,AI还可能加剧社会不平等。有钱人可以利用AI提高生产力,而穷人可能因此失业。政府应该采取措施,确保AI的红利能够惠及所有人。

问题1:AI生成内容是不是抄袭,我觉得得看情况。完全复制肯定不行,但如果只是风格上的借鉴,我觉得可以接受。毕竟人类艺术家也会互相学习,AI 也可以参考已有的作品进行创新。技术上,可以研究AI生成内容和原始作品之间的相似度,设定一个阈值,超过这个阈值就判定为抄袭。法律上,可能需要新的版权法来明确AI生成内容的版权归属和使用规则。

问题1:楼上说的都有道理,我补充一点,我觉得还可以考虑用户的使用目的。如果用户利用AI只是为了娱乐或者个人学习,那我觉得可以适当放宽标准。但如果用户利用AI生成内容进行商业活动,那版权问题就必须严格对待。毕竟商业利益的驱动下,侵权的可能性会更高。另外,我觉得建立一个AI作品的版权登记系统也很重要,可以方便创作者维护自己的权益。

问题2:我觉得AI风控应该像金融风控一样,需要一套完整的监管体系。首先要有明确的法律法规,规定AI技术的哪些应用场景是禁止的,哪些是需要许可的。其次,要有专门的监管机构,负责监督AI技术的开发和使用。最后,要有惩罚机制,对违反法律法规的行为进行严厉处罚。只有这样,才能真正防范AI滥用。