持续学习 个性化 半参数化记忆 偏好漂移
摘要

大语言模型的个性化通常依赖静态检索或一次性适应,假设用户偏好恒定不变。然而,真实交互中用户兴趣持续演化,模型需在避免灾难性遗忘的同时适应偏好漂移。现有持续学习方法常因无差别更新噪声交互而失效,难以区分真实偏好变化与临时上下文。为此,本文提出SPRInG——一种新型半参数化持续个性化框架。训练阶段采用基于似然评分的漂移驱动选择性适应机制,仅在高新颖性交互上更新用户特定适配器,并将难学残差存入回放缓冲区;推理阶段通过严格相关性门控,结合参数化知识与检索历史进行logit插值。在长文本个性化生成基准上的实验表明,SPRInG显著优于现有基线,验证了其在现实持续个性化场景中的鲁棒性。

AI 推荐理由

论文聚焦持续个性化中的记忆机制,结合参数与检索记忆应对偏好漂移。

论文信息
作者 Seoyeon Kim, Jaehyung Kim
发布日期 2026-01-15
arXiv ID 2601.09974
相关性评分 8/10 (高度相关)