摘要
记忆管理对大语言模型(LLM)智能体实现长期交互与个性化至关重要。现有研究多关注记忆摘要的组织与使用,却忽视了初始记忆提取阶段。本文基于递归加工理论指出,当前基于摘要的方法存在两大局限:一是摘要为“提前进行”的盲目前馈过程,因无法预知未来任务而遗漏关键细节;二是提取通常为“一次性”操作,缺乏事实验证的反馈机制,导致信息损失累积。为此,我们提出主动记忆提取方法(ProMem),将提取视为迭代认知过程,通过自问自答机制构建递归反馈回路,主动探查对话历史以恢复缺失信息并修正错误。实验表明,ProMem显著提升了记忆提取的完整性与问答准确率,并在提取质量与token开销之间实现了更优权衡。
AI 推荐理由
论文聚焦LLM Agent记忆提取机制,提出ProMem框架,属核心记忆研究。
论文信息