OpenAI提议封杀中国AI模型,意图垄断全球AI市场?

OpenAI建议美国政府封杀DeepSeek等中国AI模型,放松AI监管,以确保在全球AI竞赛中获胜。这引发了关于数据使用、知识产权和AI发展方向的讨论。

原文标题:美国网友都在喷!OpenAI公然要求封杀DeepSeek等中国AI模型,还要合法“吸血”全球版权数据!

原文作者:AI前线

冷月清谈:

OpenAI向美国政府提交提案,呼吁对中国AI模型如DeepSeek进行封杀,理由是它们受到国家补贴和控制,并可能威胁美国在AI领域的领导地位。OpenAI还强调,为了在全球AI竞赛中击败中国,美国需要放松AI监管,并允许AI公司更自由地获取数据,包括受版权保护的数据。他们认为,如果中国开发者可以无限制地访问数据,而美国公司却无法享受合理使用(Fair Use)的权利,那么AI竞赛实际上就已经结束了。此外,OpenAI还提出了一系列“AI管制战略”,建议区分全球人工智能市场中的国家,对不同级别的国家采取不同的出口管制措施,以确保美国在AI领域的领先地位。

怜星夜思:

1、OpenAI 呼吁美国政府限制中国 AI 模型的发展,这是否会阻碍全球 AI 技术的创新和交流呢?
2、OpenAI 认为“如果中国开发者可以无限制地访问数据,而美国公司却无法享受合理使用(Fair Use)的权利,那么 AI 竞赛实际上就已经结束了”,你怎么看待数据获取和 AI 发展之间的关系?
3、OpenAI 建议美国政府区分全球人工智能市场中的国家,对不同级别的国家采取不同的出口管制措施,你认为这种“三级框架”是否可行?可能会带来哪些影响?

原文内容

整理 | 华卫、燕珊

当地时间周四,OpenAI 针对美国政府即将出台的“AI 行动计划”,提交了一份长达 15 页的提案。该公司强调,AI 发展需要加速、需要放松监管,并坚称这对于在 AI 竞赛中击败中国至关重要

OpenAI 在提案中称, 这是其为影响政府即将出台的“AI 行动计划”所作出的直接努力。今年 1 月,特朗普推翻了拜登于 2023 年 10 月签署的人工智能行政命令,随后发布了一项新的行政命令,宣布“维持和加强美国在全球人工智能领域的主导地位是美国的政策”,并要求在 180 天内向总统提交一份 AI 行动计划。

“尽管美国今天在 AI 领域保持领先,但 DeepSeek 表明我们的领先优势并不大,并且正在缩小。”OpenAI 在提案中这样写道。

并且,在 OpenAI 看来,“在推进民主人工智能的过程中,美国正在与中国竞争。DeepSeek 最近发布的 R1 模型如此值得关注,不是因为它的能力(R1 的推理能力虽然令人印象深刻,但充其量只能与美国的几个模型相提并论),而是因为它是衡量这场竞争状况的标准。”OpenAI 还称,“DeepSeek 同时受到国家补贴、国家控制和免费提供,其用户付出的代价是隐私和安全。”

今年 1 月,DeepSeek 的模型应用迅速走红,并一度超过 ChatGPT、位居苹果应用商店榜首。并且,据公开信息,DeepSeek 模型的开发成本仅为 OpenAI、Anthropic、 谷歌等公司竞争模型的一小部分。这一点也是美国人工智能专家和投资者的一大担忧。

值得注意的是,事实上,DeepSeek 的开放模型对于用户数据的收集授权要得非常克制。在用户协议里,DeepSeek 不仅明确了信息收集的多重处理前提,还明确收集到的内容只用于模型服务优化和风控:“在经安全加密技术处理、严格去标识化且无法重新识别特定个人的前提下,可能会将服务所收集的输入及对应输出,用于本协议下服务的优化以及统计分析、问题排查、安全风控等目的。”

此外,DeepSeek 保留了用户在提交的输入中拥有的任何权利、所有权和利益,并将服务输出内容的任何权利、所有权和利益归属于用户,还明确了用户可将本服务的输入与输出应用于广泛的使用场景中,包括个人使用、学术研究、衍生产品开发、训练其他模型(如模型蒸馏)等。

DeepSeek 用户协议

对此,有美国网友评价,“OpenAI 宣称担心安全性,但如果你仔细研读那份文件就会发现,他们更在意的是自己的商业模式以及“知识产权”(实际上,在他们的模型训练过程中,他们对知识产权毫无尊重)。”还有人说道,“他们为了提出诉求,现在承认 DeepSeek 是当前最先进的(SOTA)了。又或许他们是在夸大 DeepSeek 以便能证明自己的观点呢?”

放宽 AI 监管?OpenAI 请求特朗普政府提供更多法律保护

在“控诉”DeepSeek 的同时,OpenAI 还在政策建议中明确表达了这样的立场,即向 AI 公司提供尽可能多的数据是确保全球 AI 领导地位的唯一途径

他们强调,如果中国开发者可以无限制地访问数据,而美国公司却无法享受合理使用(Fair Use)的权利,那么 AI 竞赛实际上就已经结束了。

OpenAI 透露,大多数 ChatGPT 用户年龄在 35 岁以下,而在美国,约三分之一的用户年龄在 18 至 24 岁,这意味着未来几代人的教育、职业发展乃至社会经济结构都将受到 AI 技术的深远影响。

“美国会失败,而民主 AI 的成功也将终结。最终,确保更广泛的数据来源才能带来更强大的创新,并提供更多的知识。” OpenAI 警告道。

然而,美国 AI 企业当前面临巨大挑战,各州政府正试图通过立法全面监管 AI 行业。据 MultiState(一家立法跟踪机构)统计,仅 2025 年 就提出了 832 项相关法律。其中,一些法规参照了欧洲严格的 AI 监管框架,但 OpenAI 认为美国政府不应效仿欧盟的模式,因为这些法律可能会限制创新,削弱美国 AI 企业的竞争力。

当前,美国法院正在审理 AI 训练是否属于“合理使用”。版权所有者认为,AI 模型在训练过程中使用受保护的创意作品,可能导致原始创作者被市场取代,并整体上削弱人类的创造力。

OpenAI 是众多因 AI 训练而面临法律诉讼的公司之一,涉及数十起版权案件。这些 AI 公司辩称,AI 在训练过程中对受版权保护的作品进行了“转化”(transformative use),其生成内容不会直接替代原作品,因此应被视为合理使用。

不过截至目前,有一项具有里程碑意义的裁决支持了版权所有者的立场。据《连线》报道,有一名法官裁定,AI 训练不属于合理使用,因为 AI 的输出明显威胁到汤森路透(Thomson Reuters)旗下法律研究机构 Westlaw 的市场地位。而这个裁决可能影响《纽约时报》对 OpenAI 提起的重大诉讼。

因此,OpenAI 希望通过政策干预来避免类似的裁决,其强调,“OpenAI 的模型被训练不会复制作品供公众消费。相反,它们从作品中学习,并提取模式、语言结构和上下文信息。这意味着,我们的 AI 模型训练方式符合版权法和合理使用原则的核心目标,即利用现有作品创造全新的、不同的内容,同时不会削弱这些作品的商业价值。”

据悉,特朗普 “AI 行动计划”的公众评论期将于本周六结束。

对于 OpenAI 宣称“不允许其合理使用数据、 AI 竞赛就已经结束”的说法,有网友表示,“从他们试图遏制人工智能的那一刻起,人工智能领域的竞争就已经结束了。你无法与不可避免的趋势相抗衡。真正的问题不在于谁会胜出——而在于当现有的框架本身瓦解之时,谁能够适应。”

提出一系列“AI 管制战略”

与此同时,OpenAI 提出了出口管制方面的全面战略,不仅要限制人工智能技术流向中国,还要确保美国 “赢得扩散”,即尽可能多的世界国家与起民主价值观保持一致,并在民主基础设施的基础上进行建设。为此,OpenAI 建议通过保留人工智能扩散规则的三级框架,来区分全球人工智能市场中的国家:

  • 一级:通过以促进公民享有更多自由的方式部署人工智能系统,来促进民主人工智能原则的国家可被视为一级国家。包括美国的盟国,以及那些致力于人工智能民主原则、美国人工智能基础设施(如芯片)被转移到非一级国家的风险相对较低的国家。

  • 二级:仅限于那些未能防止出口管制芯片和其他美国开发的知识产权流入三级国家或被三级国家使用的国家,将鼓励和支持这些国家逐步获得一级地位;在此期间,这些国家将受到更严格的安全要求。

  • 三级:中国以及一小部分盟国,将被禁止使用其民主人工智能系统。

OpenAI 认为,为扩大一级国家的市场份额,美国的商业外交政策应鼓励跨境资本流动,推广针对国产芯片设计优化的软件框架;协调全球范围内禁止中国关联的 AI 基础设施;继续在安全和安保标准机构中代表美国公司的利益,并鼓励全球监管机构采取有利于增长的安全和安保政策;修订现行出口管制规则,取消对计算能力出口的国家配额限制;保留现有的出口许可豁免,使技术和软件出口能够与盟友进行技术合作并保护经济关键的供应链。

OpenAI 还提出了为保护在一级国家运营数据中心所需的美国开发的知识产权、可能包括的安全要求,如禁止使用中国生产的设备和模型。并且,其要求对模型权重进行控制:“在保护美国开发的知识产权和促进美国开发的模型优于包括中国在内的第三级国家开发的模型之间取得平衡。”

并且,OpenAI 提议,为保护在二级国家运营数据中心所需的美国开发的知识产权,并管理知识产权被盗的高风险和出口管制芯片可能从二线国家流入三线国家的额外风险,商业外交政策也可以这样做:允许向位于二级国家的最终用户出口先进的人工智能芯片,这些国家应满足一级安全要求,但制定额外的公司治理控制措施和技术强化保护措施(如硬件机制),防止出口控制芯片被转移。

此外,OpenAI 强硬指出,包括中国在内的三级国家应该继续受到严格的人工智能系统出口管制,包括现有的先进芯片出口管制;还可以扩大现有的管制范围,如将大规模推理和 RL 训练所需的先进芯片以及用于制造先进人工智能芯片和数据中心的组件包括在内

参考链接:

https://cdn.openai.com/global-affairs/ostp-rfi/ec680b75-d539-4653-b297-8bcf6e5f7686/openai-response-ostp-nsf-rfi-notice-request-for-information-on-the-development-of-an-artificial-intelligence-ai-action-plan.pdf

https://arstechnica.com/tech-policy/2025/03/openai-urges-trump-either-settle-ai-copyright-debate-or-lose-ai-race-to-china/

声明:本文为 AI前线整理,不代表平台观点,未经许可禁止转载。

直播预告

智能编码工具层出不穷,究竟怎么选、如何用?3 月 5 日 -14 日,InfoQ 极客传媒将发起「智能编码系列」直播,邀请阿里、百度、腾讯、字节、商汤、思码逸等企业一起在线 Coding,与所有开发者直观感受和评测数款国内外在线编码工具在企业真实生产场景中的表现。欢迎扫码或点击按钮一键预约直播!


今日荐文




图片
你也「在看」吗?👇

数据就是AI的燃料啊!没数据,再好的算法也跑不起来。但“无限制访问”和“合理使用”之间的界限在哪儿,这是个大问题。既要保护知识产权,又要保证AI发展的数据需求,确实需要好好平衡。我觉得可以参考一下欧盟的GDPR,既要保护个人隐私,又要鼓励数据共享。

我认为在一定程度上会阻碍全球AI技术的创新和交流。技术的发展需要在开放的环境下进行,限制某些国家或地区的技术发展,可能会导致全球AI技术发展的不平衡,甚至可能引发新的技术壁垒。此外,技术交流的减少也会使得不同国家和地区之间的技术发展无法互相借鉴和学习,从而减缓全球AI技术的发展速度。

这个“三级框架”听起来有点“冷战思维”。虽然可能在短期内保护美国的技术优势,但长期来看,可能会加剧国家间的技术对抗,甚至引发新的地缘政治风险。而且,谁来定义“民主人工智能原则”?标准由谁制定?这些都是问题。总感觉这事儿没那么简单。

从经济学角度看,短期保护主义可能对特定企业有利,但长期会损害整体行业的创新能力。AI 发展需要全球合作和知识共享,限制某些国家的参与可能会导致技术停滞。当然,国家安全是另一个需要考虑的重要因素。

这种分级方法在实践中可能会面临很多挑战。例如,如何客观地评估一个国家是否符合“民主人工智能原则”?如何防止一些国家通过不正当的手段来获取更高的级别?此外,这种分级方法也可能会引发国际社会的争议,甚至可能被一些国家视为对他们的歧视和不公平待遇。但是,如果能够有效地执行,也有助于引导全球AI技术朝着更加安全、可靠和负责任的方向发展。

数据是AI模型训练的基础,数据量越大、质量越高,模型的效果通常会更好。但是数据的获取也需要遵循一定的规则和伦理,例如要尊重用户的隐私,不得侵犯知识产权等。因此,数据获取和AI发展之间是一种相互依存又相互制约的关系。如果数据获取过于宽松,可能会导致侵权和滥用;如果数据获取过于restrictive,可能会限制AI技术的发展。

这事儿挺复杂的。一方面,限制竞争可能短期内对美国有利,但长期来看,少了外部压力,创新动力可能就不足了。另一方面,技术交流受阻,全球AI发展也会受到影响。但如果真的像 OpenAI 说的那样,存在安全和价值观上的差异,那又另当别论了。

从地缘政治角度来看,这种分级策略可能会加剧国际紧张关系。将国家分为三级,实际上是在构建一个技术联盟体系,这可能会导致技术壁垒和不信任感。同时,这种策略也可能会促使一些国家加大对自主可控技术的研发投入,从而加速全球技术格局的多极化。

数据和AI的关系,就像土地和农业。没有土地,农民就无法种植庄稼。但是,农民也不能随意侵占他人的土地。同样,AI的发展需要大量的数据,但是数据的获取必须符合法律法规和伦理规范。OpenAI 的担忧可以理解,但也需要放在全球合作的大背景下考虑。