BDI智能体 对比性解释 信任建模 人机交互 解释性AI
摘要

自主系统提供解释的能力对于支持透明性和建立适当信任至关重要。先前研究定义了一种机制,使信念-欲望-意图(BDI)智能体能够回答“你为什么执行动作X?”的问题。然而,我们通常会提出对比性问题(“你为什么选择X而不是F?”)。因此,本文扩展了之前的工作,使其能够回答此类对比性问题。计算评估表明,使用对比性问题可以显著减少解释长度。通过人类受试者评估,研究了对比性答案是否更受欢迎,以及它们在支持信任发展和透明性方面的效果。研究发现,对比性答案在一定程度上更受青睐,并可能提高信任度、感知理解和对系统正确性的信心。此外,还评估了提供解释的整体益处,结果出乎意料,没有明确的益处,在某些情况下甚至发现提供完整解释比不提供任何解释更差。

AI 推荐理由

论文聚焦于BDI智能体的解释能力,特别是对比性问题的推理与回答机制,直接涉及推理能力的研究。

论文信息
作者 Michael Winikoff
发布日期 2026-02-10
arXiv ID 2602.13323
相关性评分 8/10 (高度相关)