摘要
大语言模型(LLM)智能体的快速发展对支持长期交互与复杂推理的鲁棒记忆系统提出了迫切需求。现有方法通常采用僵化的检索粒度、冗余的信息累积策略和粗粒度的更新机制,导致存储内容与任务推理需求不匹配,并随时间积累逻辑不一致。为此,本文提出基于多智能体协作的自适应记忆框架(AMA),通过协调多个智能体实现多粒度记忆管理。AMA采用分层记忆结构,动态匹配检索粒度与任务复杂度:Constructor与Retriever协同构建多粒度记忆并自适应路由查询;Judge验证检索内容的相关性与一致性,必要时触发迭代检索或调用Refresher;Refresher则通过定向更新或删除过时条目维护记忆一致性。在长上下文基准上的实验表明,AMA显著优于当前最优方法,且相比全上下文方法减少约80%的token消耗。
AI 推荐理由
论文核心聚焦于LLM Agent记忆机制的设计与优化,标题明确包含memory。
论文信息