摘要
为支持大语言模型(LLM)智能体在复杂环境中进行可靠的长期交互,需构建能高效管理历史经验的记忆系统。现有方法或通过被动扩展上下文保留完整交互历史,导致严重冗余;或依赖迭代推理过滤噪声,带来高昂的token开销。为此,本文提出SimpleMem——一种基于语义无损压缩的高效记忆框架,包含三个阶段:(1) 语义结构化压缩,利用熵感知过滤将非结构化交互提炼为紧凑、多视角索引的记忆单元;(2) 递归记忆整合,异步地将相关单元融合为更高层抽象表示以减少冗余;(3) 自适应查询感知检索,根据查询复杂度动态调整检索范围,高效构建精准上下文。实验表明,该方法在准确率、检索效率和推理成本方面均显著优于基线,F1平均提升26.4%,推理token消耗最多降低30倍。
AI 推荐理由
论文聚焦LLM Agent的终身记忆机制,提出高效记忆系统SimpleMem。
论文信息