知识增强 元认知 认知一致性 推理能力 知识边界校准
摘要

知识增强显著提升了大语言模型(LLMs)在知识密集型任务中的表现。然而,现有方法通常基于一个简单的前提,即模型性能等同于内部知识,忽视了导致过度自信错误或不确定真相的知识-置信度差距。为弥合这一差距,本文提出了一种新的元认知框架,通过差异化的干预和对齐实现可靠的知识增强。该方法利用内部认知信号将知识空间划分为已掌握、困惑和缺失区域,指导有针对性的知识扩展。此外,我们引入了一种认知一致性机制,以同步主观置信度与客观准确性,确保校准后的知识边界。大量实验表明,我们的框架在多个基准测试中始终优于强基线,验证了其不仅提升知识能力,还能促进更好区分已知与未知的认知行为。

AI 推荐理由

论文聚焦于知识增强与认知一致性,直接关联LLM的推理能力与知识边界校准。

论文信息
作者 Hao Chen, Ye He, Yuchun Fan, Yukun Yan, Zhenghao Liu et al.
发布日期 2026-02-13
arXiv ID 2602.12996
相关性评分 9/10 (高度相关)