LLM Agent Reasoning User Engagement Information Transparency
摘要

诱导推理已成为提升大型语言模型(LLMs)在复杂任务中表现的一种强大技术。然而,其在真实用户参与型代理场景中的有效性仍不清楚。本文对用户参与型LLM代理中显式推理的效果进行了全面研究。实验涵盖了七种模型、三个基准和两种推理实现方式,并通过定量响应分类分析和定性失败传播案例研究进行评估。与预期相反,我们发现强制推理在用户参与场景中常常适得其反,导致各种LLMs出现异常性能下降。我们的关键发现表明,推理会使代理更加‘内向’,即缩短响应并减少向用户披露信息,从而削弱代理与用户之间的信息交换,导致下游任务失败。此外,我们证明了明确提示信息披露可以可靠地提高不同模型家族的性能,表明主动透明度是优化代理的关键杠杆。总体而言,我们的研究表明,信息透明度意识是未来设计现实场景中推理代理的重要但尚未充分探索的视角。

AI 推荐理由

论文核心研究了强制推理对LLM代理性能的影响,直接涉及推理机制及其在用户交互场景中的表现。

论文信息
作者 Jiatong Li, Changdae Oh, Hyeong Kyu Choi, Jindong Wang, Sharon Li
发布日期 2026-02-08
arXiv ID 2602.07796
相关性评分 9/10 (高度相关)