RAG 上下文压缩
摘要

检索增强生成(RAG)有助于提升大语言模型的准确性,但将长文档输入提示会显著增加计算开销。为此,研究者提出了多种上下文压缩方法,如词元剪枝、摘要和嵌入压缩等。然而,过度压缩会导致模型难以理解信息。本文提出ArcAligner(自适应递归上下文对齐器),一种轻量级模块,集成于语言模型层中,以提升模型对高度压缩上下文表示的利用能力。其采用自适应“门控”机制,仅在信息复杂时增加计算,兼顾效率与性能。在多个知识密集型问答基准上,ArcAligner在相近压缩率下显著优于现有基线,尤其在多跳推理和长尾场景中表现突出。代码已开源。

AI 推荐理由

涉及压缩上下文表示,间接关联Agent记忆机制。

论文信息
作者 Jianbo Li, Yi Jiang, Sendong Zhao, Bairui Hu, Haochun Wang et al.
发布日期 2026-01-08
arXiv ID 2601.05038
相关性评分 5/10 (一般相关)