视觉语言模型 自动驾驶 推理评估 上下文感知 模型评估
摘要

基础模型,包括视觉语言模型,越来越多地用于自动驾驶中以解释场景、推荐行动并生成自然语言解释。然而,现有的评估方法主要关注结果导向的性能,如安全性和轨迹准确性,而未确定模型决策是否反映人类相关因素。因此,尚不清楚此类模型生成的解释是否对应真正的推理响应决策,还是仅仅是事后合理化。为解决这一问题,我们提出了CARE Drive(上下文感知推理评估驾驶),一个与模型无关的框架,用于评估应用于自动驾驶的视觉语言模型的推理响应性。CARE Drive通过受控上下文变化比较基线和增强推理模型的决策,以评估人类原因是否因果影响决策行为。该框架采用两阶段评估过程。提示校准确保输出稳定。随后系统化的上下文扰动测量决策对人类原因(如安全边界、社会压力和效率约束)的敏感性。我们在一个涉及竞争规范考虑的自行车超车场景中展示了CARE Drive。结果显示,明确的人类原因显著影响模型决策,提高了与专家建议行为的一致性。然而,响应性在不同上下文因素之间存在差异,表明对不同类型原因的敏感性不均衡。这些发现提供了实证证据,表明可以在不修改模型参数的情况下系统评估基础模型的推理响应性。

AI 推荐理由

论文聚焦于评估视觉语言模型在自动驾驶中的推理响应性,直接涉及推理能力的评估机制。

论文信息
作者 Lucas Elbert Suryana, Farah Bierenga, Sanne van Buuren, Pepijn Kooij, Elsefien Tulleners et al.
发布日期 2026-02-17
arXiv ID 2602.15645
相关性评分 9/10 (高度相关)