LLM Agent Memory Episodic Memory Multi-agent System Context Preservation
摘要

随着大语言模型(LLM)智能体向系统2推理演进,其需在长时间跨度内维持严谨的逻辑完整性。然而,现有记忆预处理范式常因破坏性去上下文化而损害深层推理所需的上下文完整性。为此,本文提出E-mem框架,将范式从记忆预处理转向情节上下文重构。受生物记忆印迹(engrams)启发,E-mem采用异构分层架构:多个辅助智能体维护未压缩的记忆上下文,主控智能体负责全局规划。该机制使辅助智能体能在激活片段内进行局部推理,提取上下文感知证据后再聚合。在LoCoMo基准上的评估表明,E-mem的F1得分超过54%,较当前最优方法GAM提升7.75%,同时降低70%以上的token开销。

AI 推荐理由

论文标题与内容均聚焦于LLM Agent记忆机制,提出新型记忆架构E-mem。

论文信息
作者 Kaixiang Wang, Yidan Lin, Jiong Lou, Zhaojiacheng Zhou, Bunyod Suvonov et al.
发布日期 2026-01-29
arXiv ID 2601.21714
相关性评分 10/10 (高度相关)