摘要
共识在情境化口语对话中至关重要,对话双方需建立并维持对实体、事件和关系的共享指代,以保障交互连贯性。对于对话系统而言,准确地将对话内容锚定于上下文并在后续引用尤为关键。尽管已有研究表明大语言模型(LLM)能执行请求澄清或生成确认等锚定行为,但鲜有工作探讨如何显式表征并存储共识以供后续使用。缺乏此类机制,难以判断确认或澄清行为是否真正反映理解。本文评估模型在情境对话中通过关系性指代建立并利用共识的能力,测试多种共识表征方法,并提出改进共识建立及其后续使用的策略。
AI 推荐理由
论文聚焦于对话中共同基础的显式表示与存储,涉及记忆机制但非核心主题。
论文信息