Agent Memory Personalization
摘要

本文研究大语言模型(LLM)中的个性化问题。现有工作多将用户偏好表示为隐式的、模型特定的向量或参数,导致难以解释和跨模型/任务迁移的“黑盒”画像。作者主张采用自然语言作为通用、与模型和任务无关的偏好表示接口,从而生成可解释、可复用且能随新交互持续演化的偏好描述。为此,提出两阶段训练框架:结合高质量合成数据的监督微调与强化学习,以优化长期效用和跨任务可迁移性,并构建AlignXplore+模型生成文本化偏好摘要。在九个基准上的实验表明,该8B模型性能超越更大规模开源模型,并展现出强跨任务、跨模型族及跨交互格式的迁移能力。

AI 推荐理由

提出用自然语言作为可迁移、可解释的偏好记忆表示,属于Agent Memory的重要应用。

论文信息
作者 Yuting Liu, Jian Guan, Jia-Nan Li, Wei Wu, Jiang-Ming Yang et al.
发布日期 2026-01-08
arXiv ID 2601.04963
相关性评分 7/10 (相关)