资源消耗 推理安全 对抗攻击 递归熵 反思机制
摘要

大型推理模型(LRMs)通过推理解决复杂任务,但其显式推理需要更长的上下文长度,导致资源消耗显著增加。先前研究表明,对抗性输入可能触发冗余推理过程,使LRMs面临资源耗尽的漏洞。然而,推理过程本身,尤其是其反思部分,尚未受到足够关注,尽管它可能导致过度反思并消耗大量计算资源。本文引入递归熵来量化反思过程中的资源消耗风险,揭示推理过程本身的安全隐患。基于递归熵,我们提出RECUR,一种通过递归熵引导的反事实利用与反思的资源耗尽攻击方法。该方法构建反事实问题以验证LRMs的内在缺陷和风险。大量实验表明,在正常推理下,递归熵呈现明显下降趋势,而RECUR破坏了这一趋势,使输出长度增加高达11倍,并将吞吐量降低90%。本研究为鲁棒推理提供了新的视角。

AI 推荐理由

论文聚焦于LLM的推理过程及其资源消耗问题,核心研究推理机制中的反思部分。

论文信息
作者 Ziwei Wang, Yuanhe Zhang, Jing Chen, Zhenhong Zhou, Ruichao Liang et al.
发布日期 2026-02-09
arXiv ID 2602.08214
相关性评分 9/10 (高度相关)