ChatGPT 迎来重大更新:新增历史对话参考功能,打造你的专属 AI 助理

ChatGPT 重磅更新!新增历史对话参考,打造更懂你的 AI 助理。还能回忆起你最尴尬的事,简直是社死现场!

原文标题:ChatGPT重大更新,能翻出所有历史对话,网友被AI聊破防了

原文作者:机器之心

冷月清谈:

OpenAI 近日发布了 ChatGPT 的一项重大更新,使其能够参考用户过去的所有聊天记录,从而提供更加个性化的回复和建议。这项更新通过新增的“参考聊天记录”功能实现,与之前的“保存记忆”功能不同,它能让 ChatGPT 使用所有之前的对话作为上下文,调整新回复的内容。用户可以选择开启或关闭此功能,但无法访问或修改保存的信息。OpenAI 计划首先向 ChatGPT Plus 和 Pro 用户推出此功能,随后再面向企业版、团队版和教育版用户开放。此外,OpenAI 也在积极开发下一代大模型 GPT-4.5,目标是比 GPT-4 智能程度提升 10 倍,并探索更大规模训练的潜力与挑战。

怜星夜思:

1、ChatGPT 能够回忆所有历史对话,这对于保护个人隐私提出了哪些新的挑战?我们应该如何应对?
2、OpenAI 提到 GPT-4.5 的目标是比 GPT-4 智能程度提升 10 倍,你认为这种提升主要会体现在哪些方面?这对我们的生活和工作会产生什么影响?
3、文章中提到 ChatGPT 可能会一本正经地输出不存在的记忆,也就是出现“幻觉”问题。你认为未来如何有效解决这个问题,确保 AI 提供的记忆是准确可靠的?

原文内容

机器之心报道

编辑:泽南

终极个人 AI 助理初现雏形。


今天凌晨,OpenAI 的 CEO 山姆・奥特曼突然发推说自己睡不着了,因为有重要新功能要推出。



很快,OpenAI 就正式发布了一个令人期待的新功能。


从今天开始,ChatGPT 在每次开启对话中都可以参考你过去的所有聊天记录,提供更加个性化的回复,并在建议中能够根据你的喜好和兴趣进行优化。有网友夸张地说,它现在知道关于你的一切,甚至包括你对话中产生的所有想法。


图片


这意味着 ChatGPT 可以随着时间的推移更多地了解用户,越用越聪明,更加个性化,不再只是个无情的事实检查工具。该说不说,其实现在你开启以后,它已经能够回忆以前的对话内容了。


不久前,OpenAI 添加了一项名为「记忆」的功能,允许保留有限数量的信息,并用于未来的响应。用户通常需要明确要求 ChatGPT 记住某些信息才能触发此功能,尽管 AI 偶尔也会尝试猜测应该记住什么。当某些信息添加到其记忆中时,系统会显示一条消息,提示其记忆已更新。


今天宣布的新改进还不止于此。访问此功能后,你会看到一个弹出窗口,上面写着「推出新改进型记忆能力」。



ChatGPT 的界面上以前有一个复选框用于启用或禁用记忆追踪,现在则有两个复选框。「参考已保存记忆」是旧的记忆功能,它是一个容量有限的重要信息库。第二个是新功能:「参考聊天记录」,这使得 ChatGPT 能够使用所有之前的对话作为上下文,并相应地调整新回复的内容


与旧版保存记忆功能不同,聊天历史记录功能保存的信息无法访问或修改,只能选择开启或关闭。


新的 ChatGPT 记忆选项。


从覆盖范围来看,新的记忆功能首批会向 ChatGPT Plus 和 Pro 用户推出,不过 OpenAI 仍然需要在未来几周内逐渐部署。部分国家和地区(英国、欧盟、冰岛、列支敦士登、挪威和瑞士)尚未纳入此次推广范围。


OpenAI 表示,这些新功能将在稍后面向企业版、团队版和教育版用户推出,具体日期尚未公布。该公司尚未透露任何面向免费用户的计划。


新功能发布之后,人们纷纷进行了尝试。简单来说,从开启功能的一刹那观感就变了,ChatGPT 不再会和你简单地打招呼,而是变得跟你很熟悉的样子:



很多人问 ChatGPT「我前几天在搞哪些项目?」,AI 自然可以分门别类,对答如流。也有人在问,告诉我一些关于我的意想不到的事情,它会唤醒你一些死去的记忆:



那么让 ChatGPT 说出你以前最尴尬的事情呢?说出来让人有点破防:


看起来,大家对大模型拥有这样的记忆能力纷纷表示震惊。


机器学习社区中有人表示,这是对话系统的一个飞跃,或许会成为技术发展的拐点。如果你正在寻求适合特定情况、个性和偏好的答案,它可以显著提高 ChatGPT 的实用性。从更高的角度看,长期记忆能力也在把 ChatGPT 从一次性工具变成真正的助手。或许在不远的未来,它会比你更懂你。


OpenAI 研究科学家、AI 德扑 AI Libratus 发明者 Noam Brown 则表示,记忆能力标志着大模型应用互动范式的转变。



不过也有人在测试后指出,目前的记忆功能也存在一些缺陷,比如它仍然存在大模型幻觉的问题,有可能会一本正经地输出不存在的记忆。另外,ChatGPT 还没法把对话日期和记忆做好准确对应,这是以前 memory 功能就已经存在的问题。


分享了账号的网友在测试了新功能后也表示不好接受:



从技术角度来看,大型语言模型(LLM)通常使用两种类型的记忆:一种是在模型训练过程中嵌入到 AI 模型中的数据,另一种是上下文记忆(对话历史记录),它会在会话期间持续存在。通常情况下,一旦开始新的会话,ChatGPT 等大模型就会忘记你在对话中告诉过它的内容。


但对于大模型应用来说,人们总是期待 AI 能够实现长期记忆,从而更加智能。许多项目都尝试赋予 LLM 超越上下文窗口的持久记忆。这些技术包括动态管理上下文历史记录、汇总压缩先前的历史记录、链接到外部存储信息的向量数据库,或者简单地定期将信息注入系统提示(如 ChatGPT 在每次聊天开始时都会收到的指令)等等。


而在目前的 ChatGPT 长期记忆能力,很可能使用了检索增强生成(RAG),它能够在生成响应之前引用训练数据来源之外的知识库,而无需重新训练模型。对于大模型提供者来说,这是一种经济高效地改进 LLM 输出的方法,它让 AI 可以在各种情境下都能保持相关性、准确性和实用性。


与此前版本的记忆功能一样,用户也可以完全禁用 ChatGPT 的长期记忆功能(打开一个类似于 ChatGPT 的隐身模式),并且它不会用于带有临时聊天标志的对话。


值得一提的是,在 ChatGPT 记忆功能发布的同时,OpenAI 也放出了一段 46 分钟的采访视频,其中山姆・奥特曼与 GPT-4.5 项目核心成员 Alex Paino、Daniel Selsam 和 Amin Tootoonchian 展开对话,聊了聊最新大模型的训练过程和未来的发展方向。



有人对其中重点进行了总结:GPT-4.5 的项目历时两年,其目的是使新模型比前代(GPT-4)智能程度提升 10 倍左右。在这一代模型上,OpenAI 使用的训练算力从几万 GPU 提升到了十万级的 GPU,这就带来了大量未预见的问题。


虽然一直以来,Transformer 架构能够有效地从数据中学习,但 OpenAI 现在训练大模型的瓶颈似乎不是算力,而是数据,未来的进展取决于采样效率更高的算法;训练 GPT-4 现在只需要 5-10 人;下一代大模型的训练预计将有 1000 万次以上的 GPU 运行,不过过程可能是「半同步」或分布式的。


OpenAI 表示,在开发过程中,GPT-4.5 模型展现出了一些此前未明确规划的细微能力,该项目的结果最终验证了现有的「扩展定律」。


展望未来,OpenAI 团队讨论了更大规模训练的潜力与挑战,假设会用到百万级的 GPU。他们还谈到了预训练阶段与模型推理能力之间的关系、数据质量的重要性以及当前硬件的限制。


参考内容:

https://x.com/sama/status/1910334443690340845

https://x.com/polynoamial/status/1910379351759347860

https://www.youtube.com/watch?v=6nJZopACRuQ

https://arstechnica.com/ai/2025/04/chatgpt-can-now-remember-and-reference-all-your-previous-chats/



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

提升 10 倍啊,那可太厉害了!我觉得主要会体现在理解能力、推理能力和创造力上。比如,它可能更懂你的意图,能更好地解决复杂问题,甚至能写出更棒的小说和音乐。对我们的生活和工作影响肯定很大,很多重复性的工作可能会被 AI 取代,但同时也会出现很多新的机会,比如 AI 训练师、AI 伦理师等等。

从技术角度来看,这确实带来了新的隐私问题。例如,如果 ChatGPT 被黑客入侵,或者 OpenAI 滥用这些数据,用户的隐私将面临风险。更进一步,如果这些数据被用于构建用户画像,可能会导致歧视或不公平待遇。因此,除了法律法规,还需要技术上的解决方案,比如使用差分隐私等技术来保护用户数据。

从技术角度来看,解决幻觉问题可以考虑以下几个方向:1) 增强模型的知识表示能力,使其能够更准确地存储和检索信息;2) 引入外部知识库,让模型能够参考权威的信息来源;3) 利用强化学习,鼓励模型生成更符合事实的答案;4) 开发更有效的评估指标,以便更好地检测和纠正幻觉问题。

这个问题问得好!现在 AI 越来越了解我们,隐私问题真的要重视起来。一方面,OpenAI 肯定要加强数据安全措施,防止泄露。另一方面,咱们自己也要有意识地管理 AI 的记忆,定期清理不必要的对话记录,就像清理浏览器缓存一样。当然,最根本的还是要有相关的法律法规来约束 AI 的发展,让它在服务我们的同时,也能尊重我们的隐私。

挑战肯定是有的,但是机遇也并存。隐私泄露确实是个大问题,得靠法律、技术和伦理多管齐下。比如欧盟的 GDPR 就是个不错的参考,强调用户对自身数据的控制权。个人操作层面,咱也得提高警惕,别啥都跟 AI 聊,毕竟谁知道它背后藏着啥呢?

10倍提升?我更关心的是成本问题。算力需求肯定爆炸式增长,到时候怕不是只有大公司才能玩得起。对咱普通人来说,可能就是体验更流畅的 AI 服务了吧,但背后付出的代价可能远不止金钱。万一AI真的有了自我意识,那才是真正的大麻烦。

其实我觉得“幻觉”某种程度上也是AI的魅力所在啊!虽然有时候靠不住,但是偶尔冒出的脑洞还挺有趣的。当然,如果是用在严肃的场合,那肯定不能容忍。所以关键还是在于应用场景,以及我们对AI的期望值。想要完全消除幻觉?我觉得不太现实,不如想想怎么更好地利用它。

“幻觉”问题确实挺让人头疼的,感觉就像 AI 在一本正经地胡说八道。要解决这个问题,我觉得需要双管齐下。一方面,要改进模型本身,让它更擅长区分真实信息和虚假信息,比如引入更多的知识图谱和事实核查机制。另一方面,要加强对训练数据的管理,确保数据的质量和可靠性。当然,用户在使用 AI 时也要保持警惕,不要完全信任 AI,要自己进行判断和验证。

从技术角度分析,智能程度的提升可能意味着模型参数规模的扩大、训练数据的增加以及算法的优化。这将使 GPT-4.5 在自然语言处理的各项任务上表现更出色,例如机器翻译、文本摘要、问答系统等。然而,我们也需要警惕 AI 带来的潜在风险,例如失业、偏见和滥用。