摘要
自一致性(SC)是一种有效的解码策略,通过生成多个思维链推理路径并利用多数投票选择最终答案,从而提升大语言模型(LLMs)的推理性能。然而,该方法因需要大量样本而带来显著的推理成本。为缓解这一问题,难度自适应自一致性(DSC)被提出,通过根据问题难度调整样本数量以减少简单问题的冗余计算。但DSC需要额外的模型调用和预采样来估计难度,导致计算开销较大。本文提出基于激活信息的难度感知自一致性(ACTSC),利用前馈网络神经元激活中的内部难度信号构建轻量级难度估计探针,无需额外的token生成或模型调用。该探针可动态调整SC的样本数量,并适用于新数据集而无需预采样。实验结果表明,ACTSC在保持精度的同时有效降低了推理成本。
AI 推荐理由
论文聚焦于提升LLM推理性能的解码策略,直接涉及推理能力优化。
论文信息