推理轨迹 大语言模型 决策演化 模型诊断
摘要

大语言模型(LLMs)常通过生成“推理轨迹”来解决复杂问题,但尚不清楚其准确性与决策确定性如何随推理过程演变,以及中间轨迹是否包含超越长度或风格效应的答案相关信息。本文提出一种系统性探查协议:生成模型推理轨迹,在固定token百分位截断,并将各部分重新注入模型以通过下一token概率评估答案分布。在Qwen3和gpt-oss系列模型上的GPQA Diamond与MMLU-Pro基准测试表明,随着提供推理token比例增加,准确率与决策确定性持续提升,且主要源于生成内容的相关性而非上下文长度或通用“推理风格”。强模型能从错误轨迹中有效回退,而弱模型的答案易被早期错误锚定。该方法可为推理模型的安全高效部署提供诊断依据。

AI 推荐理由

研究推理轨迹中信息演化,间接涉及记忆机制但非核心。

论文信息
作者 Marthe Ballon, Brecht Verbeken, Vincent Ginis, Andres Algaba
发布日期 2026-01-30
arXiv ID 2601.23163
相关性评分 5/10 (一般相关)