摘要
大语言模型(LLM)的最新进展显著推动了具身智能体的发展。基于LLM的多智能体系统缓解了单智能体在复杂任务中的低效问题,但仍面临记忆不一致与智能体行为冲突等挑战。为此,本文提出MiTa——一种融合记忆与任务分配的分层协作框架,通过管理者-成员层级结构提升协作效率。管理者配备任务分配与摘要模块:前者实现全局任务分配以避免智能体间冲突;后者在任务进展更新时触发,将近期协作历史压缩为简洁摘要,保留长时程上下文。实验表明,MiTa在复杂多智能体协作任务中相较强基线方法展现出更优的效率与适应性。
AI 推荐理由
论文核心提出记忆整合机制,标题明确包含memory,且记忆是协作框架的关键组成部分。
论文信息