AI 记忆的演进:LLM Memory 与 Agent Memory 的分野与挑战

AI 记忆迎来新突破!文章解读 LLM Memory 和 Agent Memory 的区别与挑战,洞察 AI 从工具到智能体的演变。

原文标题:LLM 的记忆问题「很快」就不再是问题了?

原文作者:机器之心

冷月清谈:

文章探讨了AI Memory的演进,区分了LLM Memory和Agent Memory两条路径。LLM Memory是预测的底层计算机制,侧重于在有限窗口内保证即时生成的准确性。Agent Memory则是在LLM Memory基础上延伸,系统性支撑自主行为,协调感知、规划、行动的循环过程,使系统能够拆解并执行复杂任务。文章还指出了LLM Memory面临的挑战,如“稳定性-塑性困境”,以及AI Memory作为变革性赋能工具,推动人工智能系统升级为具备自适应、协作能力的以人为中心的智能体的潜力。

怜星夜思:

1、OpenClaw 的“长效记忆”与真正的“持久记忆”之间有什么本质区别?你认为目前的技术发展到什么程度才能算 AI 真正拥有了持久记忆?
2、文章提到了 LLM Memory 的“稳定性-塑性困境”,你认为有哪些可能的解决方案? 除了微调,还有什么其他方法可以让 LLM 既能学习新知识,又不丢失旧知识?
3、文章将 AI Memory 分为 LLM Memory 和 Agent Memory,你认为这种划分合理吗?未来 AI Memory 的发展方向会是两者融合,还是各自发展?为什么?

原文内容

本文来自PRO会员通讯内容,文末关注「机器之心PRO会员」,查看更多专题解读。


当前,智能体正经历范式转变,从高效的单任务执行模式,逐步向动态环境下的持续自适应、能力演化与经验积累模式转型。在此背景下,AI Memory 作为核心基石,赋能智能体保持行为一致性、做出理性决策并实现高效协作。在长期探索中,AI Memory 已经分化为「Agent Memory」与「LLM Memory」两条截然不同的演进路径。


目录

01. OpenClaw 的「长效记忆」为何不代表「AI 拥有持久记忆」?
OpenClaw的记忆力表现属于哪种突破?LLM Memory 与 Agent Memory 有何区别?...
02. AI Memory 的研究视角在如何变化?

2025与2026的综述都在用什么视角解析AI Memory?如何理解 AI Memory 的「4W」分类?...

03. 近期工作在如何探索 LLM Memory 和 Agent Memory?

2026年的 LLM Memory 与 Agent Memory 研究都在解决哪些问题?...


OpenClaw 的「长效记忆」为何不代表「AI 拥有持久记忆」?

1、开源项目 OpenClaw(原名 Clawdbot 及 Moltbot)在 2026 年初引起了一阵病毒式流行。在相关讨论中,在相关讨论中,OpenClaw 的核心竞争力在于它被视为「有手的 Claude」,能够跨越数周乃至数月的会话维持持久性记忆,通过学习用户的偏好、语气及特定工作流,使 AI 从「对话窗口」转变为真正「懂你」的数字雇员。

① 自 2025 年底发布以来,OpenClaw 项目在 GitHub 上的热度极速攀升,在 2026 年 2 月已突破 19 万颗星。[1-1] 

2、在此热度下,AI 社区对 OpenClaw 项目热议的核心不仅在于能够执行复杂的跨平台操作,更在于其展示出的「长效记忆」能力是否代表「AI 拥有持久记忆」的未来是否即将来临。

① 伴随 LLM 及 Agent 应用的突破和广泛应用,AI 的记忆(Memory)问题被视为推动更高阶智能演进的核心瓶颈,围绕改善 AI 记忆力的研究已成为 LLM 相关研究中最受关注的前沿方向之一。

② 在 2025 年先后涌现了诸多有关改善 AI Memory 的探索,如 Meta 团队的「SMF」工作、谷歌提出的「Nested Learning」范式及 HOPE 模型、MIT 的「BEYOND CONTEXT LIMITS」工作等(详见 Pro 会员通讯 2025 Week 46 &Week 50)

③ 学术界 AI Memory 的关注同样在不断提升。以顶会的研究主题为例,ICLR 2026 专门设立了「MemAgents」研讨会,旨在为智能体构建一个能够支持单样本学习和长程一致性的底层记忆基底。[1-11] 

3、伴随学术界对 Memory 架构和机制的持续探索,以及 OpenClaw 在工程上的「巨大成功」,长期以来被探讨的 AI 记忆问题开始形成边界,并分化「LLM Memory」与「Agent Memory」两条演进路径。[1-4] 

① LLM Memory 构成了预测的底层计算机制,存在两种具体形态:嵌入在预训练模型权重中的参数化记忆,以及通过上下文窗口管理的运行时记忆。LLM Memory 是基础的计算载体,其优先级在于在有限的窗口内保证即时生成的准确性,而非维持连贯的自主行为。

② Agent Memory 则在前者的基础上延伸为系统性支撑自主行为的功能流程。它不再仅生成孤立的文本,而是协调感知、规划、行动的循环过程,使系统能够拆解并执行复杂任务。

4、在 Agent 领域,或应用相对垂直的「Vertical Agent」语境下,记忆(Agent Memory)不再是科学难题,而是一个可以通过场景拆解、针对性构建得到解决的工程问题。[1-2] [1-3] 

① 通过将数据组织为过程性、陈述性、元认知等不同格式,Agent Memory 让系统能够从历史经验中学习,这一层级通过实现反思和策略优化,推动数据从静态记录向动态 「经验」 转变,使 Agent 能够基于过往结果演化自身行为。[1-4] 

5、相对于 Agent Memory 的繁荣,LLM Memory)仍存在诸多挑战,如「稳定性-塑性困境」(Stability-Plasticity Dilemma)。当尝试通过微调将新信息注入参数时,模型往往会丢失旧的、同样重要的知识 。[1-4] 


AI Memory 的研究视角在如何变化?

1、AI Memory 的核心价值不止于缓解大语言模型的上下文窗口有限、交互无状态等技术瓶颈,更被视为一种变革性赋能工具,推动人工智能系统从通用工具升级为具备自适应、协作能力的以人为中心的智能体。[1-4] 

2、伴随对 AI Memory 的持续探索,研究者开始从多样的视角审视这一 AI 能力的基石,并对其理论依据,运作机理及边界深入探索与迭代。

① 2025 年 4 月,华为诺亚方舟实验室的「From Human Memory to AI Memory」从人类认知科学中的记忆理论出发,为理解 LLM Agent 的记忆机制提供了一个类比框架。[1-5] ...


 关注👇🏻「机器之心PRO会员」,前往「收件箱」查看完整解读 


更多往期专题解读内容,关注「机器之心PRO会员」服务号,点击菜单栏「收件箱」查看。

融合的关键在于如何建立 LLM 和 Agent 之间的桥梁,让它们能够高效地沟通和协作。可以借鉴人类大脑的运作机制,例如,LLM 负责提供“直觉”和“灵感”,Agent 负责进行逻辑分析和行动规划。最终融合的形态,也许是一个能够像人类一样思考和行动的超级智能体。

OpenClaw 的“长效记忆”更像是对用户偏好和工作流的模式识别与短期存储,然后快速检索并应用,但它缺乏深度理解和情境推理,容易受到数据质量和算法偏差的影响。而真正的“持久记忆”需要AI能够像人类一样理解、反思、整合信息,能够将新知识与旧知识融合,形成一个不断演化的知识体系。这需要更强大的知识表示、推理能力和自我学习机制。目前的技术还处于初级阶段,需要显著提升 AI 的认知和学习能力,并有效解决“灾难性遗忘”等问题。

OpenClaw 的“记忆”只是个花架子,本质上还是在上下文窗口里做文章。真正的持久记忆得是 AI 能像人一样建立知识图谱,进行深度推理。现在顶多算幼儿园水平,离能像人类一样思考还差着十万八千里呢。

我觉得可以借鉴人脑的“睡眠”机制,让 AI 在“闲暇”时段对知识进行整理和巩固。或者搞一个类似“知识银行”的东西,把知识分门别类地存起来,用的时候再提取出来,这样就不怕新知识把旧知识冲没了。

将 AI Memory 分为 LLM Memory 和 Agent Memory 是合理的,因为它们关注的重点和应用场景不同。LLM Memory 侧重于语言模型的即时生成能力,Agent Memory 则侧重于智能体的自主行为和长期经验积累。我认为未来更有可能是两者融合。LLM Memory 可以为 Agent Memory 提供强大的语言理解和生成能力,Agent Memory 可以为 LLM Memory 提供更丰富的上下文信息和长期记忆支持。这种融合将使AI系统更加智能、灵活和适应性强。当然,在特定场景下,两者也可能各自发展,以满足不同的需求。

我觉得这种划分挺不错的,一下子就把LLM和Agent的区别给说清楚了。LLM就像一个记忆力超群的速记员,Agent就像一个能独立思考和行动的管家。未来肯定是融合发展的大趋势,毕竟谁也不想用一个只会说话的鹦鹉或者一个没有语言能力的机器人吧?

“稳定性-塑性困境”是深度学习领域的老问题了。除了微调之外,还可以尝试以下方法:

1. 增量学习 (Incremental Learning): 逐步学习新知识,而不是一次性全部学习,以此减轻对旧知识的干扰。
2. 记忆重放 (Memory Replay): 定期重放之前的训练数据,以巩固旧知识。
3. 正则化方法 (Regularization Techniques): 在训练过程中加入正则化项,限制模型参数的变化幅度。
4. 网络结构设计 (Network Architecture Design): 设计专门的网络结构来分离和保护旧知识。
5. 知识蒸馏: 将新知识“蒸馏”到不包含旧知识的模型中。

这些方法各有优缺点,需要根据具体场景进行选择和组合。

其实,我觉得“稳定性-塑性困境”的核心在于知识表示。如果能找到一种更有效的知识表示方法,让新旧知识能够互不干扰地存储和更新,这个问题就能迎刃而解。说白了,就是得在模型内部搞一个更高级的“知识管理系统”。

划分是人为的,本质还是为了解决问题。现在分开研究是为了更好地理解各自的特性和局限。长期来看,肯定要融合,不然 LLM 只能当文字游戏机,Agent 只能做些简单的重复劳动,都发挥不出 AI 的真正潜力。

我感觉OpenClaw有点像我爸妈用的那些智能设备,能记住一些常用指令,但是一旦场景稍微复杂一点就掉链子。真正的持久记忆得是像人脑一样,能把各种信息组织起来,还能根据情境进行灵活应用。现在AI还差得远呢,感觉像是还在小学阶段,要走的路还很长。