摘要
当前大语言模型的知识编辑方法通常依赖预定义基准,仅评估被编辑事实及其有限的相关知识,难以全面理解编辑对模型整体知识系统的影响。为此,本文提出嵌入虚拟化知识(EVK),通过在嵌入空间中施加受控扰动,刻画模型知识并探索超出显式数据标注的更广泛虚拟知识区域。基于EVK,作者构建了嵌入级评估基准EVK-Bench,可量化编辑引发的知识漂移,揭示传统样本级指标无法捕捉的影响。此外,还提出即插即用的EVK-Align模块,在编辑过程中约束嵌入级知识漂移,可无缝集成至现有编辑方法。实验表明,该方法在不牺牲编辑准确率的前提下显著提升知识保留能力,并支持更全面的评估。
AI 推荐理由
涉及知识编辑对模型内部知识(记忆)的影响,但未聚焦Agent Memory架构。
论文信息