摘要
人机对话常表现出话题连续性——即在时间相邻的交互中演化的稳定主题框架,但现有大语言模型(LLM)智能体记忆系统难以保留这一特性。当前方法多采用“碎片化-补偿”范式:先将对话流拆分为孤立语句存储,再通过嵌入检索恢复连贯性,此过程不可逆地破坏叙事与因果流,并偏向词汇相似性。本文提出Membox,一种以“话题织机”(Topic Loom)为核心的分层记忆架构,通过滑动窗口持续监测对话,将连续同主题轮次在存储时聚合成连贯的“记忆盒”;随后由“轨迹编织器”(Trace Weaver)将封存的记忆盒链接为长程事件时间线,恢复跨间断的宏观话题重现。在LoCoMo数据集上的实验表明,Membox在时序推理任务中F1最高提升68%,优于Mem0、A-MEM等基线,且仅使用现有方法一小部分上下文token,显著兼顾效率与效果。
AI 推荐理由
论文提出Membox架构,核心解决LLM Agent中话题连续性的长期记忆建模问题。
论文信息