摘要
现有神经求解器通常在固定任务集上一次性训练,或在顺序到达的若干任务上进行终身学习,且假设每个任务均有充足训练资源。然而现实场景中,问题模式常随时间持续漂移,导致大量任务依次出现,而每个任务仅能获得有限训练资源。本文研究一种新型终身学习范式,针对学习过程中持续漂移的任务,且任意时刻均无法对任一任务充分训练的情形。为此,提出“经验增强的双重回放”(DREE)框架,以提升学习效率并缓解灾难性遗忘。大量实验表明,在持续漂移设定下,DREE能有效学习新任务、保留先验知识、提升对未见任务的泛化能力,并可适配多种现有神经求解器。
AI 推荐理由
提出双回放机制缓解灾难性遗忘,涉及记忆保留但非核心记忆架构研究。
论文信息