推理能力 模型效率 内部表示 任务难度预测
摘要

在对每个问题进行扩展推理时运行大型语言模型(LLMs)是昂贵的,但确定哪些输入实际上需要额外计算仍具有挑战性。本文研究是否可以从生成前的内部表示中恢复模型自身的成功概率,并探讨这一信号是否能指导更高效的推理过程。我们通过训练线性探针,在生成前的激活状态上预测数学和编程任务中的策略特定成功情况,显著优于表面特征如问题长度和TF-IDF。使用E2H-AMC数据集,该数据集提供了相同问题的人类和模型表现,我们展示了模型编码了一个与人类难度不同的模型特定难度概念,并且这种差异随着扩展推理而增加。利用这些探针,我们证明了跨模型池路由查询可以在减少推理成本高达70%的同时超越最佳模型的表现,表明即使模型的内部表示与人类对难度的直觉不同,也能实现实际效率提升。

AI 推荐理由

论文聚焦于LLM在推理任务中的内部表示与成功预测,直接关联到推理能力的研究。

论文信息
作者 William Lugoloobi, Thomas Foster, William Bankes, Chris Russell
发布日期 2026-02-10
arXiv ID 2602.09924
相关性评分 9/10 (高度相关)