Agent Memory Neural Logic Core
摘要

当前大语言模型(LLMs)存在参数纠缠问题,即通用推理能力(逻辑)与具体事实知识(事实)在共享权重中处于叠加态,导致“记忆墙”现象,浪费计算资源并引发幻觉。本文提出“数字代谢”假说,认为定向遗忘是提炼纯神经逻辑核心的必要过程。为此,我们设计了再生性逻辑核心协议(RLCP),一种双流训练框架,通过深层梯度反转使特定事实依赖在线性层面不可解码。在Qwen2.5-0.5B上的实验显示,模型对目标事实的保留率趋近于零(准确率<7%),同时呈现出“结构结晶化”效应。GSM8K测试表明,该“代谢”模型自发采用思维链(CoT)推理,以补偿直接联想回忆的缺失(从O(1)回忆转向O(N)推理)。该研究为模块化“神经CPU+符号RAM”架构奠定基础。

AI 推荐理由

提出“数字代谢”机制,通过定向遗忘解耦逻辑与事实记忆,直接研究Agent Memory核心架构。

论文信息
作者 Mengmeng Peng, Zhenyu Fang, He Sun
发布日期 2026-01-15
arXiv ID 2601.10810
相关性评分 9/10 (高度相关)