OpenAI官宣开源计划:自GPT-2后首个开放权重推理模型即将发布

OpenAI宣布即将发布自GPT-2以来首个开放权重推理模型,开发者可自行调整,安全性是核心重点。

原文标题:刚刚,奥特曼官宣开源:自GPT-2之后,我们要发首个带推理能力的开放权重模型

原文作者:机器之心

冷月清谈:

OpenAI 宣布将在未来几个月内发布一款具有推理能力的开放权重模型,这是自GPT-2以来OpenAI首次开放权重。该模型权重公开,允许开发者进行分析和微调,以执行特定任务。OpenAI将根据安全准备框架评估这个模型,并举办开发者活动收集反馈。该模型将可以在用户自己的硬件上运行,且安全性是开发的核心重点。

怜星夜思:

1、OpenAI 此次开源的动机是什么?仅仅是为了社区合作吗?
2、你觉得这个开放权重模型会达到什么样的水平?会超过GPT-4吗?
3、OpenAI强调安全性是此次开源的核心重点,你认为在开源模型中,AI安全风险主要体现在哪些方面?

原文内容

机器之心报道

机器之心编辑部


OpenAI 终于又要「Open」一回了!


今天凌晨,奥特曼发推宣布,OpenAI 将在未来几个月发布一款具备推理能力的强大新型开放权重模型。


OpenAI 希望与广大开发者、研究者和社区交流合作,探讨如何让这个模型发挥最大作用。OpenAI 非常期待将它打造成为一个非常出色的模型。



开放权重意味着语言模型的训练参数或权重是公开访问的,开发者可以使用它来分析和微调模型以执行特定任务,而无需原始训练数据。


奥特曼进一步称,OpenAI 正计划发布自 GPT-2 以来的第一个开放权重语言模型。OpenAI 已经考虑了很长时间,但其他优先事项耽误了进程。现在觉得做这件事很重要。


在发布之前,OpenAI 将根据自己的安全准备框架(Preparedness Framework)评估这个模型,就像对任何其他模型所做的那样。并且考虑到模型在发布之后可能会修改,OpenAI 将做额外的工作。


OpenAI 还有一些决策要做,所以将举办开发者活动来收集反馈,然后让开发者试用早期原型。活动将于几周后在旧金山开始,随后在欧洲和亚太地区举行。



下图为 OpenAI 希望用户反馈的部分问题:



另外,OpenAI 研究者 Steven Heidel 表示,这个开放权重模型将可以在用户自己的硬件上运行。



OpenAI 模型安全团队成员 Johannes Heidecke 称,「从预训练到发布,安全性是此次开放权重模型开发的核心重点。虽然开放模型带来了独特的挑战,但会以准备框架为指导,不会发布我们认为会带来灾难性风险的模型。」



在奥特曼公布开源模型的消息后,评论区一片沸腾。有人猜测是不是 o1-mini 要开源,有人好奇这个模型是在 GPT-5 之前还是之后发布,有人开始猜测这个模型的名称。



而就在奥特曼官宣开源模型之前的一个小时,他高兴地宣布,「26 个月前,ChatGPT 的推出是我见过的最疯狂的病毒式传播时刻之一,我们在五天内增加了 100 万用户。 现在,我们仅在上一小时内就增加了 100 万用户。」这当然要归功于 GPT-4o 图像生成的火爆传播。



参考链接:

https://www.reuters.com/technology/artificial-intelligence/openai-plans-release-open-weight-language-model-coming-months-2025-03-31/

https://techcrunch.com/2025/03/31/openai-plans-to-release-a-new-open-language-model-in-the-coming-months/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我觉得不完全是。一来,开源可以吸引更多人参与到模型的改进和优化中,加速技术发展,降低 OpenAI 的研发成本。二来,在开源的大势下,OpenAI 可能也想借此巩固自己的行业地位,掌握话语权。当然,也有可能是为了平衡一下最近被诟病的“闭源”形象,拉拢人心。

从更阴谋论的角度看,也许OpenAI觉得某个方向短期内盈利困难,或者边际收益太低,干脆开源出来让社区去探索,万一探索出新大陆了OpenAI也可以从中获益。当然,也不排除是受到了来自监管机构的压力,毕竟现在对AI的监管越来越严格了。

同意楼上的看法。OpenAI 肯定有自己的战略考量。现在开源是大趋势,不做就有点逆潮流而动了。而且,与其被竞争对手抢先一步,不如自己主动出击,掌握主动权。搞不好还能通过开源,吸引一波人才加入。

大家说的都对,我补充一点,开源后的模型也可能存在“涌现”现象,即模型在特定情况下突然表现出意想不到的行为。这种行为可能是有害的,也可能是无益的,但都增加了AI系统的不可控性。所以,持续的监控和评估也是非常重要的。

AI 安全的风险我觉得主要在以下几点:1. 模型被恶意利用,比如生成假新闻、deepfake,影响社会稳定;2. 模型被用于自动化攻击,比如网络钓鱼、恶意软件;3. 模型泄露敏感信息,侵犯用户隐私;4. 模型强化社会偏见,加剧歧视。

个人觉得短期内超过 GPT-4 的可能性不大。毕竟 OpenAI 投入了大量资源在 GPT-4 上,不太可能轻易公布一个超越它的模型。更可能是一个在特定领域表现出色,或者更适合小型设备运行的模型。

我觉得不好说,说不定 OpenAI 这次憋了个大招。虽然超越 GPT-4 有难度,但如果能在推理能力上有所突破,也是非常值得期待的。而且,开源意味着无数开发者可以参与进来,集思广益,说不定能创造奇迹。

以我多年冲浪经验来看,期望越大,失望越大。大概率是一个够用,但没那么惊艳的模型。OpenAI 现在更注重商业化,不太可能把最核心的技术直接开源。当然,如果能开源一些实用的工具和接口,也是不错的。

安全问题必须重视!除了楼上说的,还有一点就是模型可能被用于军事领域,制造智能武器,威胁国家安全。或者被用于监控和审查,侵犯公民自由。 我认为 OpenAI 应该在开源前做好充分的风险评估,并采取相应的防护措施。