machine translation reasoning framework structured reasoning large language models
摘要

面向推理的大型语言模型(RLMs)通过生成显式中间推理,在数学和编程等任务中取得了显著进展。然而,其在机器翻译(MT)中的影响仍鲜有研究。本文系统评估了多个开源和闭源RLMs在WMT24++基准上的表现,发现启用显式推理会普遍降低翻译质量。分析表明,MT的推理轨迹高度线性,缺乏修订、自我纠正和替代翻译的探索,限制了其实用性。此外,从更强模型注入高质量推理轨迹并不能可靠地提升较弱模型的表现。为解决这一不匹配问题,我们提出了一种针对翻译任务的结构化推理框架,基于多步骤草稿、充分性优化、流畅性改进和选择性迭代修订。我们构建了一个动态结构化推理轨迹的合成数据集,并在此基础上对大型推理模型进行后训练。实验表明,该方法在标准翻译微调和注入通用推理基线方法上均有显著提升。我们的研究结果表明,推理必须具有任务结构才能有效提升机器翻译。

AI 推荐理由

论文聚焦于LLM的推理能力在机器翻译中的应用与改进,是该主题的核心研究。

论文信息
作者 Sara Rajaee, Sebastian Vincent, Alexandre Berard, Marzieh Fadaee, Kelly Marchisio et al.
发布日期 2026-02-16
arXiv ID 2602.14763
相关性评分 9/10 (高度相关)