摘要
随着大语言模型(LLM)在决策支持系统和智能代理流程中的广泛应用,其在不确定性条件下的决策机制仍缺乏深入理解。本文从两个维度对20个前沿及开源LLM的风险选择进行比较研究:一是前景表示方式(显式与经验基础),二是决策理由(解释)。研究结合人类受试者实验和最大化预期收益的理性代理模型作为参考。结果发现,LLM可分为两类:推理模型(RMs)和对话模型(CMs)。RMs表现出更理性的行为,对前景顺序、得失框架和解释不敏感;而CMs则显著不够理性,更接近人类行为,且对前景顺序、框架和解释敏感,表现出较大的描述-历史差距。研究表明,数学推理训练是区分RMs和CMs的关键因素。
AI 推荐理由
论文核心研究LLM在不确定条件下的决策行为,重点分析推理模型与对话模型的差异。
论文信息