跳转至

A-MEM: Agentic Memory for LLM Agents

会议: NeurIPS 2025
arXiv: 2502.12110
代码: https://github.com/WujiangXu/AgenticMemory
领域: LLM Agent / 记忆系统
关键词: Agentic Memory, Zettelkasten, 长期记忆, LLM Agent, 知识管理

一句话总结

提出 A-Mem,一种受 Zettelkasten 启发的 LLM Agent 智能记忆系统,每条记忆自动生成结构化笔记(关键词/标签/上下文描述),动态建立记忆间链接,并在新记忆加入时触发旧记忆的演化更新,在 LoCoMo 长对话 QA 上显著超越 MemGPT 等基线。

研究背景与动机

  1. 领域现状:LLM Agent 需要记忆系统支持长期交互,现有系统(MemGPT、MemoryBank)提供基础存取功能
  2. 现有痛点
  3. 现有记忆系统依赖预定义的存储结构和固定的存取操作,缺乏自适应能力
  4. Mem0 等引入图数据库但依赖预定义 schema,无法灵活创建新的组织模式
  5. 固定工作流限制了在多样任务上的泛化能力
  6. 记忆只读不写——存储后不再更新,无法随时间演化
  7. 核心矛盾:静态记忆结构 vs 动态变化的知识组织需求
  8. 本文要解决什么? 设计一个能自主组织、动态链接、持续演化的灵活记忆系统
  9. 切入角度:Zettelkasten(卡片盒)方法——原子化笔记 + 灵活链接 + 知识网络
  10. 核心idea一句话:让记忆系统像 Zettelkasten 一样自主生成结构化笔记、建立链接、触发旧记忆演化

方法详解

整体框架

输入:Agent 与环境的交互记录。记忆存储流程:(1) 笔记构建——LLM 从交互内容生成关键词/标签/上下文描述;(2) 链接生成——embedding 检索近邻记忆 + LLM 判断是否建立语义链接;(3) 记忆演化——新记忆触发对近邻旧记忆的上下文和标签更新。检索时用 cosine similarity 找 top-k 记忆,同时获取链接的相关记忆。

关键设计

  1. 结构化笔记构建 (Note Construction):
  2. 做什么:为每条交互生成原子化、多属性的记忆笔记
  3. 核心思路:每条记忆 m_i = {内容 c_i, 时间 t_i, 关键词 K_i, 标签 G_i, 上下文描述 X_i, 嵌入 e_i, 链接集 L_i}。K_i、G_i、X_i 由 LLM 从原始交互内容生成。嵌入 e_i 由文本编码器对所有文本属性拼接后编码
  4. 设计动机:多面表征捕获记忆的不同维度(关键词=概念、标签=分类、描述=语境),支持细粒度检索和组织

  5. 自主链接生成 (Link Generation):

  6. 做什么:新记忆自动与历史记忆建立语义链接
  7. 核心思路:用 embedding cosine similarity 检索 top-k 近邻记忆,然后用 LLM 分析是否应建立链接(基于共享属性和上下文关联)。链接形成"盒子"(box)——类似 Zettelkasten 中的主题簇,一条记忆可属于多个盒子
  8. 设计动机:embedding 做初筛保证效率,LLM 做精确判断捕获细微关联(因果、概念层面)

  9. 记忆演化 (Memory Evolution):

  10. 做什么:新记忆加入后自动更新近邻旧记忆的属性
  11. 核心思路:对近邻集中的每条旧记忆 m_j,LLM 根据新记忆和其他近邻的信息决定是否需要更新 m_j 的关键词、标签和上下文描述。更新后的 m_j* 替换原记忆
  12. 设计动机:模拟人类学习——新知识改变对旧知识的理解。随时间累积形成越来越精细的知识结构

损失函数 / 训练策略

  • 无需训练,纯 prompt-based 系统
  • 使用 all-minilm-l6-v2 做文本嵌入
  • top-k=10 做记忆检索

实验关键数据

主实验

LoCoMo 长对话 QA 数据集(9K tokens/对话,35 sessions)

方法 Multi-Hop F1 Temporal F1 Single-Hop F1 Avg F1 Rank Token Length
LoCoMo 25.02 18.41 34.93 3.0 ~13K
MemGPT 30.36 17.29 60.16 2.4 16,987
MemoryBank 6.49 2.47 8.28 5.0 569
A-Mem 32.86 39.41 48.43 1.6 1,216

A-Mem 在 Temporal QA 上显著领先(39.41 vs MemGPT 17.29),整体排名第一,且token消耗远少于 MemGPT

消融实验

配置 说明
w/o Link Generation 移除链接机制后性能下降,说明记忆间连接很重要
w/o Memory Evolution 移除演化后时间推理下降最多,说明记忆更新对长期理解关键
w/o 结构化属性 只存原始文本不生成关键词/标签,检索质量下降

关键发现

  • A-Mem 在时间推理(Temporal)上优势最大(2倍+),因为记忆演化能自动整合时间序列信息
  • Token 消耗仅 1,216(MemGPT 需 16,987),效率高一个数量级
  • 在 6 种基础模型上一致优于基线(GPT-4o-mini, Qwen, Llama 等)
  • T-SNE 可视化显示记忆形成了清晰的主题簇

亮点与洞察

  • 记忆系统的"Agentic"化:不是被动存取,而是主动组织、链接和演化,是继 Agentic RAG 之后的合理下一步
  • Zettelkasten 与 AI 的优雅结合:原子笔记、灵活链接、渐进构建——经典知识管理方法在 LLM 时代找到了完美应用场景
  • 记忆演化机制:新知识触发旧知识的更新是关键创新,模拟了人类"学了新东西后对旧知识的重新理解"
  • 高效率:相比 MemGPT 的 17K token 消耗,A-Mem 仅用 1.2K 就取得更好效果

局限性 / 可改进方向

  • 仅在对话 QA 任务上验证,未测试工具使用、多步推理等 Agent 任务
  • 记忆演化的 LLM 调用成本未量化——每条新记忆都触发 k 次 LLM 调用更新旧记忆
  • 记忆数量增长后的可扩展性分析不充分
  • 链接和演化有可能引入错误(LLM 幻觉),缺乏纠错机制
  • 可以引入记忆遗忘机制,避免过时信息污染

相关工作与启发

  • vs MemGPT: MemGPT 用 cache 架构优先近期信息,但记忆结构固定。A-Mem 的链接和演化更灵活
  • vs Mem0: Mem0 引入图数据库但依赖预定义 schema,A-Mem 的"盒子"自动涌现
  • vs Agentic RAG: RAG 在检索阶段有 agency,但存储层是静态的。A-Mem 在存储和演化阶段都有 agency

评分

  • 新颖性: ⭐⭐⭐⭐ Zettelkasten + LLM Agent + 记忆演化的组合很有创意
  • 实验充分度: ⭐⭐⭐ 6个基础模型但仅对话QA任务,缺少Agent任务验证
  • 写作质量: ⭐⭐⭐⭐ 方法描述清晰,公式化表述规范
  • 价值: ⭐⭐⭐⭐ LLM Agent 记忆系统是重要研究方向,A-Mem 提供了有价值的新范式