Agent Memory Long-Horizon Agents
摘要

检索增强生成(RAG)已成为为大语言模型(LLM)智能体提供上下文知识的默认策略,但其将记忆视为无状态的查找表:信息无限期保留、检索为只读且缺乏时间连续性。本文提出“连续记忆架构”(CMA),一类通过持久存储、选择性保留、关联路由、时间链式连接及向高阶抽象整合来维护并更新交互间内部状态的系统。作者未披露具体实现,而是阐明CMA的架构要求,并在知识更新、时间关联、关联回忆与上下文消歧等任务中验证其相较于RAG在累积、变异与消歧记忆方面的结构性优势,证明CMA是长周期智能体的必要架构原语,同时指出延迟、漂移与可解释性等开放挑战。

AI 推荐理由

论文提出连续记忆架构CMA,核心聚焦LLM Agent记忆机制设计。

论文信息
作者 Joe Logan
发布日期 2026-01-14
arXiv ID 2601.09913
相关性评分 10/10 (高度相关)