摘要
尽管视觉多智能体系统(VMAS)有望通过智能体间协作提升综合能力,但实证研究表明存在反直觉的“扩展壁垒”:增加智能体轮次常导致性能下降并指数级增加token消耗。作者将此归因于以文本为中心通信中的信息瓶颈——将感知与思维轨迹转化为离散自然语言不可避免地造成语义损失。为此,本文提出L²-VMAS,一种模型无关的框架,通过双潜记忆实现智能体协作,并解耦感知与思维过程,动态融合两类潜记忆。此外,引入熵驱动的主动触发机制,以按需记忆访问替代被动信息传输。大量实验表明,该方法有效突破“扩展壁垒”,平均准确率提升2.7–5.4%,同时减少21.3–44.8%的token使用。
AI 推荐理由
论文提出双潜记忆机制,核心解决Agent间记忆传递与信息瓶颈问题。
论文信息