transformer inner-loop inference latent representation pretrained models semantic refinement
摘要

深度学习架构,尤其是Transformer,通常被视为由多个层组成的结构。这些层实际上常常是两个贡献的总和:一个残差路径,它复制Transformer块的输入和输出。因此,内部表示(即这些块的输入)可以被解释为传播的潜在表示的迭代优化。在此基础上,许多研究认为内部空间在各层之间是共享的,意味着可以在早期阶段解码标记。机制性可解释性甚至进一步推测某些层充当优化层。沿着这一思路,我们提出了推理时的内循环方法,通过重复应用选定的块范围来延长预训练语言模型的优化过程。在多个基准测试中,内循环带来了适度但一致的准确性提升。对生成的潜在轨迹的分析表明状态演化更加稳定,并且语义优化持续进行。总体而言,我们的结果表明,通过简单的测试时循环可以在冻结的预训练模型中获得额外的优化效果。

AI 推荐理由

论文探讨了Transformer模型内部表示的迭代优化过程,与推理能力中的思维链和语义精炼密切相关。

论文信息
作者 Jonathan Lys, Vincent Gripon, Bastien Pasdeloup, Lukas Mauch, Fabien Cardinaux et al.
发布日期 2026-02-16
arXiv ID 2602.14759
相关性评分 8/10 (高度相关)