医学推理 元认知调节 知识图谱 推理密度 LLM优化
摘要

大型语言模型(LLMs)在复杂医学推理中展现出巨大潜力,但在推理扩展定律下效果逐渐减弱。现有研究虽尝试通过增加知识类型来增强LLMs,但额外成本转化为准确性的有效性尚不明确。本文提出MedCoG,一种结合知识图谱的医学元认知代理,利用任务复杂度、熟悉度和知识密度的元认知评估动态调节程序性、情景性和事实性知识的使用。该方法旨在通过减少不必要的扩展和过滤干扰知识来提高推理效率。实验表明,MedCoG在五个医学基准数据集上实现了5.5倍的推理密度提升,验证了其有效性和效率。此外,Oracle研究表明元认知调节具有显著潜力。

AI 推荐理由

论文聚焦于LLM在医学推理中的自我认知调节,直接提升推理效率与准确性,属于推理能力的核心研究。

论文信息
作者 Yu Zhao, Hao Guan, Yongcheng Jing, Ying Zhang, Dacheng Tao
发布日期 2026-02-08
arXiv ID 2602.07905
相关性评分 9/10 (高度相关)