摘要
尽管大语言模型(LLMs)在通用推理方面表现出色,但现有检索增强方法难以应对智能体长期记忆的碎片化问题。为此,本文提出Synapse(协同联想处理语义编码),一种超越静态向量相似性的统一记忆架构。受认知科学启发,Synapse将记忆建模为动态图结构,其相关性通过扩散激活机制而非预计算链接生成。系统结合侧向抑制与时间衰减机制,动态突出相关子图并抑制干扰信息。我们设计了一种三重混合检索策略,融合几何嵌入与基于激活的图遍历。在LoCoMo基准上的综合评估表明,Synapse在复杂时序与多跳推理任务中显著优于当前最先进方法,有效缓解“上下文隧道”问题。代码与数据将在论文录用后公开。
AI 推荐理由
论文提出基于认知科学的动态图记忆架构,核心解决Agent长期记忆问题。
论文信息