摘要
多智能体大语言模型(LLM)系统已成为复杂任务分解与协作求解的强大架构,但其长期行为稳定性尚未得到充分研究。本文提出“智能体漂移”概念,指智能体在长期交互中行为、决策质量及相互一致性逐渐退化的现象,并构建包含语义漂移、协调漂移和行为漂移的理论框架。作者设计了涵盖12个维度的智能体稳定性指数(ASI)以量化漂移,并通过仿真分析揭示其对任务准确率和人工干预需求的负面影响。为缓解该问题,论文提出三种策略:情景记忆巩固、漂移感知路由协议和自适应行为锚定,理论分析表明这些方法可显著降低漂移错误并维持系统吞吐量。
AI 推荐理由
提出情景记忆巩固作为缓解策略,Memory是关键组成部分。
论文信息