工具调用 误差传播 语义相似性 模型上下文协议 鞅分析
摘要

随着基于大语言模型(LLM)的AI代理越来越多地依赖外部工具进行高风险决策,一个关键的可靠性问题浮现:错误如何在连续的工具调用中传播?本文首次提出了分析模型上下文协议(MCP)代理中误差累积的理论框架,证明累积失真呈线性增长,且高概率偏差受$O( ext{sqrt}(T))$限制。该集中性质确保了系统行为的可预测性,并排除了指数级失败模式。我们开发了一种结合离散事实匹配和连续语义相似性的混合失真度量,并通过顺序工具交互建立了误差传播的鞅集中界。实验结果表明,Qwen2-7B、Llama-3-8B和Mistral-7B等模型验证了理论预测,经验失真符合线性趋势,偏差始终在$O( ext{sqrt}(T))$范围内。主要发现包括:语义加权可减少80%的失真,每9步周期性重新校准即可实现误差控制。我们将这些集中保证转化为可信代理系统的可操作部署原则。

AI 推荐理由

论文聚焦于LLM Agent在使用工具时的信息保真问题,直接涉及工具调用与误差传播机制,属于技能学习中的关键环节。

论文信息
作者 Flint Xiaofeng Fan, Cheston Tan, Roger Wattenhofer, Yew-Soon Ong
发布日期 2026-02-10
arXiv ID 2602.13320
相关性评分 9/10 (高度相关)