in-context learning key-value cache
摘要

大语言模型(LLMs)能否仅通过上下文学习(ICL)而无需任何权重更新来掌握推理能力?尽管ICL样本效率高,但在复杂推理任务中需大量示例,而简单扩展上下文会因注意力成本剧增、性能饱和或下降而失效。本文提出ReasonCACHE,利用前缀调优将示例蒸馏为固定键值缓存,在不占用上下文窗口且不更新模型权重的前提下实现高效推理。在GPQA-Diamond等挑战性基准上,其性能优于标准ICL,并媲美甚至超越基于权重更新的方法,同时在数据效率、推理开销和可训练参数数量上更具优势。理论上,ReasonCACHE比低秩权重更新更具表达能力,因其绕过了输入秩对表达力的限制。

AI 推荐理由

提出基于固定KV缓存的推理机制,涉及记忆存储与检索,但非以Agent Memory为核心目标。

论文信息
作者 Sharut Gupta, Phillip Isola, Stefanie Jegelka, David Lopez-Paz, Kartik Ahuja et al.
发布日期 2026-02-02
arXiv ID 2602.02366
相关性评分 7/10 (相关)