摘要
知识增强显著提升了大语言模型(LLMs)在知识密集型任务中的表现。然而,现有方法通常基于一个简单的前提,即模型性能等同于内部知识,忽视了导致过度自信错误或不确定真相的知识-置信度差距。为弥合这一差距,本文提出了一种新的元认知框架,通过差异化的干预和对齐实现可靠的知识增强。该方法利用内部认知信号将知识空间划分为已掌握、困惑和缺失区域,指导有针对性的知识扩展。此外,我们引入了一种认知一致性机制,以同步主观置信度与客观准确性,确保校准后的知识边界。大量实验表明,我们的框架在多个基准测试中始终优于强基线,验证了其不仅提升知识能力,还能促进更好区分已知与未知的认知行为。
AI 推荐理由
论文聚焦于知识增强与认知一致性,直接关联LLM的推理能力与知识边界校准。
论文信息