摘要
个性化大语言模型(LLMs)通过适配用户个体行为以提升满意度,但可能无意中扭曲事实推理。本文发现,当面对事实性查询时,个性化LLM倾向于生成与用户历史偏好一致而非客观真实的答案,导致“个性化诱导幻觉”,损害事实可靠性并可能传播错误信念,其根源在于个性化表征与事实表征之间的表征纠缠。为此,作者提出一种轻量级推理时方法——保真个性化引导(FPPS),在保留个性化行为的同时缓解事实扭曲。此外,构建了首个联合评估个性化与事实问答能力的基准PFQABench。在多种LLM架构和个性化方法上的实验表明,FPPS显著提升事实准确性,同时维持个性化性能。
AI 推荐理由
涉及个性化记忆对事实推理的干扰,属记忆相关机制研究。
论文信息