early stopping uncertainty estimation reasoning efficiency LLM optimization
摘要

尽管大型语言模型(LLMs)在推理能力方面取得了显著进展,但它们有时会过度思考,生成不必要的推理步骤,尤其是在面对模糊或歧义查询时。本文引入了基于统计原理的早停方法,通过在生成过程中监控不确定性信号来缓解这一问题。第一种方法是参数化的,它将不确定性关键词的到达时间建模为更新过程,并应用顺序测试进行停止判断;第二种方法是非参数化的,提供了对良好定义查询过早停止的概率有限样本保证。我们在多个领域和模型上的推理任务中进行了实证评估。结果表明,基于不确定性的早停方法可以提高LLM推理的效率和可靠性,尤其在数学推理任务中效果显著。

AI 推荐理由

论文聚焦于LLM的推理过程,提出基于不确定性的早停机制以提升推理效率和可靠性。

论文信息
作者 Yangxinyu Xie, Tao Wang, Soham Mallick, Yan Sun, Georgy Noarov et al.
发布日期 2026-02-15
arXiv ID 2602.13935
相关性评分 9/10 (高度相关)