多智能体系统 上下文学习
摘要

多智能体讨论(MAD)近期受到广泛关注,其中多个大语言模型(LLM)实例通过结构化讨论协同解决问题。然而,现有方法常因各智能体上下文不一致而导致讨论失谐,难以达成连贯解。本文提出一种多LLM上下文学习方法(M2CL),为每个智能体学习一个上下文生成器,可在每轮讨论中通过自动信息组织与精炼动态生成上下文指令。受上下文指令理论启发,M2CL采用精心设计的自适应机制训练生成器,以控制上下文一致性并调节输出差异,从而避免过早收敛于多数噪声,逐步达成正确共识。在学术推理、具身任务和移动控制等挑战性任务上的实验表明,M2CL性能显著优于现有方法20%–50%,且具备良好的迁移性与计算效率。

AI 推荐理由

涉及上下文管理与信息组织,属记忆相关机制但非核心记忆架构。

论文信息
作者 Xingyuan Hua, Sheng Yue, Xinyi Li, Yizhe Zhao, Jinrui Zhang et al.
发布日期 2026-02-02
arXiv ID 2602.02350
相关性评分 6/10 (相关)