推理范式 语言模型 领域外泛化 模型微调 专家混合模型
摘要

演绎、归纳和溯因是人类逻辑思维的核心推理范式。尽管提升大型语言模型(LLM)的推理能力已引起大量研究关注,但这些基本范式在诱导泛化能力方面的系统性探索仍显不足。本研究探讨了这些核心推理范式之间的相互作用如何影响LLM的推理行为。为此,我们首先从符号任务中收集了一组新的推理轨迹数据集,每个任务针对三种基本范式之一,并抽象出具体世界知识。随后,我们研究了将这些技能有效引入LLM的方法,包括简单的微调以及更复杂的增加模型深度或将密集模型转换为专家混合模型的方法。我们在完全以自然语言表述且包含现实世界知识的真实领域外任务上对诱导模型进行了全面评估。结果表明,我们的方法在多个真实任务中实现了显著的性能提升(最高达14.60)。

AI 推荐理由

论文核心研究了演绎、归纳和溯因三种基本推理范式对LLM推理能力的影响,直接对应reasoning主题。

论文信息
作者 Mingzi Cao, Xingwei Tan, Mahmud Elahi Akhter, Marco Valentino, Maria Liakata et al.
发布日期 2026-02-09
arXiv ID 2602.08658
相关性评分 10/10 (高度相关)