Agent Memory Compound AI Systems
摘要

大语言模型(LLMs)越来越多地被部署于协调多个模块(如检索器、工具、验证器)的复合AI系统中,执行长周期工作流。现有基于全局文本反馈传播的方法(如TextGrad)在系统深度增加时性能下降,表现为“文本梯度爆炸”和“文本梯度消失”两种失效模式。为此,本文提出文本均衡传播(TEP),受能量模型中均衡传播启发,包含自由相(局部LLM批评者迭代优化提示至均衡)和扰动相(通过前向信号而非反向链进行有界提示编辑)。该方法在长程问答和多智能体工具使用任务中优于TextGrad,且随系统深度提升效果更显著,同时保持黑盒LLM组件的实用性。

AI 推荐理由

涉及长程信息传递与上下文压缩,间接关联记忆机制。

论文信息
作者 Minghui Chen, Wenlong Deng, James Zou, Han Yu, Xiaoxiao Li
发布日期 2026-01-28
arXiv ID 2601.21064
相关性评分 5/10 (一般相关)