OpenAI 疑似泄露 GPT-5.4 信息,或将跳过 5.3 版本?

OpenAI或将跳过GPT-5.3直接发布GPT-5.4?泄露信息暗示其在内存和上下文架构方面可能拥有重大突破,或具备更持久的认知连续性。

原文标题:OpenAI要跳过5.3,直接迈向GPT-5.4了?

原文作者:机器之心

冷月清谈:

OpenAI工程师在GitHub提交代码时意外泄露GPT-5.4型号,同时有用户发现Codex应用的模型选择器中曾短暂出现GPT-5.4。虽然相关信息已被迅速修改或删除,但引发了关于GPT-5.4是否已在内部测试,甚至准备发布的猜测。有传言称GPT-5.4的突破在于内存与上下文架构,拥有高达200万token的上下文窗口和真正的有状态AI,使模型具备跨会话的认知连续性。这可能意味着GPT-5.4的重点将从更聪明的回答转向更持久的认知能力。

怜星夜思:

1、如果GPT-5.4真的实现了200万token的上下文窗口,会对哪些行业或应用场景带来颠覆性改变?
2、你觉得“有状态AI”对用户体验来说,最直观的提升会体现在哪些方面?
3、如果OpenAI并未像文章中一样跳过GPT-5.3,而是选择发布,你认为GPT-5.3会主攻哪些方向?

原文内容

图片
机器之心编辑部


OpenAI 要略过 GPT-5.3,直接迈向 GPT-5.4 了?


近日,一名 OpenAI 工程师在公开的 Codex GitHub 仓库中提交了一则拉取请求(PR),无意间让 GPT-5.4 这一型号出现在代码版本判断条件中,引发外界关注。


图 1


几乎就在这条 PR 被网友挖掘出来的同时,另一条线索也浮出水面,有用户发现,GPT-5.4 曾短暂出现在 Codex 应用的模型选择器里。据说这张截图最初源自一位 OpenAI 员工在 X 上的发帖,不过帖子很快被删除。


图 2:网友保留的截图,原帖已经被删除


两则信息的源头,都指向 OpenAI 内部员工,这很难不让人产生联想:GPT-5.4 是否已经在内部测试,甚至进入发布准备阶段?



不过,更耐人寻味的是,这两条线索都在被传播后迅速被修改或删除,PR 被强制推送覆盖,社交平台帖子消失。


图 1 中那条写着 gpt-5.4 or newer 的 PR,在数小时后被悄悄修改为 gpt-5.3-codex or newer。



图 2 中引用的原帖也已经被删除。




这些操作反而让讨论更加升温,是内部测试分支被提前暴露?还是命名体系尚未最终确定?又或者只是一次占位符版本号的误用?在没有官方说明的情况下,代码层面的擦痕本身,也成为了新的解读对象。


而更具戏剧性的,是后续在社交平台上流传的进一步爆料。


有 X 用户声称,GPT-5.4 的真正突破不在常规推理基准,而在内存与上下文架构。传闻指向一个高达 200 万 token 的上下文窗口,并配合真正的有状态 AI(stateful AI)。这意味着模型不再是会话内记忆,而是能够在不同会话之间保留工作流、环境配置乃至工具状态。



如果这一方向属实,GPT-5.4 变化的重心就不再是更聪明的回答,而是更持久的认知连续性。


你觉得 OpenAI 会完全跳过 5.3 版本,直接用 5.4 吗?欢迎评论区留言。


参考链接:

https://x.com/benitoz/status/2028215959547494770

https://x.com/daniel_mac8/status/2028205182723436713

https://x.com/kimmonismus/status/2028123002156531714

https://piunikaweb.com/2026/02/28/openai-gpt-5-4-accidentally-leaked-codex/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


我觉得可能性很大,OpenAI一直以来都给人一种“不鸣则已,一鸣惊人”的感觉,说不定5.3只是个小修小补的版本,而5.4才是真正的大更新。可能他们在5.3的研发过程中遇到了瓶颈,或者发现了更具颠覆性的技术方向,所以直接all in 5.4了。

也可能只是烟雾弹,OpenAI故意放出的消息,用来试探市场反应,或者给竞争对手制造压力。真正的GPT-5.3可能已经箭在弦上,只是想通过这种方式来炒作一下。

这个问题问得好!如果真有这么大的上下文窗口,那简直是科幻小说照进现实。首先,长篇内容创作会迎来革命,模型可以理解整本书的上下文,续写、润色什么的简直不在话下。其次,复杂系统建模会变得更容易,比如模拟整个城市交通、经济系统,想想都刺激。最后,个性化教育会更上一层楼,模型可以记住学生的学习习惯、知识盲点,量身定制教学内容。当然,安全问题也要重视,防止模型被用于恶意目的。

与其猜测原因,不如关注背后的趋势。OpenAI 的这种做法,反映出 AI 领域竞争的激烈。他们必须在技术保密和市场宣传之间找到平衡。一方面,他们要防止竞争对手抄袭;另一方面,他们又要保持公众的关注度,为未来的产品发布做好铺垫。这种小心翼翼的态度,也说明 AI 领域的创新正在加速,每个公司都面临着巨大的压力。

跨会话保留工作流配置?这听起来像是企业效率的一次飞跃!想想看,销售人员不用每次都重新设置客户关系管理软件,AI 直接记住上次的配置;程序员也不用一遍遍地搭建开发环境,AI 自动恢复到上次的工作状态。企业效率提升绝对是杠杠的!不过,安全和隐私问题也必须重视,如果 AI 存储了敏感数据,一旦泄露,后果不堪设想。所以,权限管理和数据加密要做好啊!

作为一名程序员,我觉得占位符误用的可能性不能排除。代码中出现一些临时的、未发布的版本号是很常见的。不过,考虑到 OpenAI 的影响力,他们肯定会非常谨慎地处理这些信息。所以,即使真的是误用,他们也会选择删除,以免引起不必要的猜测。

额… 细思恐极啊!如果 AI 真的能记住所有事情,那隐私问题怎么办?以后还能放心地和 AI 聊天吗?感觉有点像科幻电影里的情节了。

意味着 AI 从一个只能回答问题的工具,变成了一个可以和你一起工作的伙伴。它能理解你的目标,记住你的偏好,并根据你的反馈不断改进。这种认知连续性是实现真正的人工智能的关键一步。

从技术角度来说,差分隐私可能是一个解决方案。通过在AI的记忆中添加噪声,可以在保护用户隐私的同时,保证AI的性能。此外,联邦学习也可以用于训练AI,让AI在不访问用户原始数据的情况下,学习用户的偏好。当然,这些技术还不够成熟,需要进一步的研究和发展。但至少提供了一个解决方向。

阴谋论一下,会不会是 OpenAI 发现竞争对手也在研发类似的模型,为了抢占市场先机,所以直接跳过一个版本,提前发布 GPT-5.4?毕竟AI领域竞争这么激烈,谁先一步推出更强大的模型,谁就能占据更大的优势。也可能是障眼法,迷惑对手,让他们摸不清OpenAI的真实进度。

“有状态 AI”啊,我的理解就是它能记住事儿!不像现在的 AI,每次对话都像第一次见面,问点稍微复杂的问题就露馅。有状态 AI 就像一个真正和你一起工作的伙伴,能记住你的偏好、习惯,甚至能理解你的情绪,这才是真正的智能助理啊!

我觉着吧,如果真是 200 万 token,那文档总结、科研文献分析这类工作简直不要太爽!以前还得一段一段地输入,现在直接把整本书丢给它,一键生成摘要,大大提高效率啊!但是,安全性也是个大问题,这么长的上下文,会不会更容易被恶意利用,泄露隐私啥的?

我理解的“有状态AI”就像一个有了长期记忆的人。 现在的AI,比如GPT,更像是“短期记忆高手”,擅长根据当前的信息给出答案,但是一旦对话结束,它就“失忆”了。 而“有状态AI”则能够记住之前的对话内容、用户的偏好等等,并且在后续的交互中加以利用。 这样,AI就能够更好地理解用户的意图,提供更加个性化、连贯的服务。

这事儿吧,我觉得一半一半。技术突破肯定有,不然也不会有这么多传闻。但公关策略也说不定,毕竟 OpenAI 现在风头正盛,时不时放点消息出来,吊足大家胃口,保持热度,也是很正常的商业操作嘛。

还有一种可能,就是 OpenAI 内部存在竞争。不同的团队可能在开发不同的模型,这次泄露也许是某个团队故意放出的消息,目的是为了给自己争取更多资源,或者给竞争对手制造麻烦。 科技公司内部的权力斗争,可一点都不比宫斗剧逊色!

别忘了成本问题!模型越大,训练和推理的成本就越高。OpenAI 肯定也在考虑如何在性能提升和成本控制之间找到平衡。所以,与其一味地追求更大的模型,不如优化现有模型的效率,或者探索更经济的训练方法。毕竟,商业化落地才是王道。