摘要
基于大语言模型(LLM)的智能体在联邦学习下的协作面临通信开销高、数据异构性及工具使用差异等挑战。本文提出Synapse框架,通过训练一个共享的全局工具使用行为知识模型来应对上述问题。各客户端智能体在固定LLM基础上本地学习工具使用模式,并通过协调器上传表征工件以进行联邦聚合;全局工具知识库随之更新并重新分发,促使智能体收敛至稳定的工具选择策略。该框架采用模板化表示、嵌入检索结合LLM重排序以及自适应掩码技术,在保障效用的同时限制信息泄露。实验表明,Synapse在多智能体LLM系统中相较权重或提示共享方法显著提升了工具使用效能并降低了通信开销。
AI 推荐理由
涉及工具使用知识的共享与聚合,隐含记忆机制但非核心焦点。
论文信息