摘要
尽管自监督语音模型表现出色,但它们在泛化到新语言时存在困难,并且在持续训练过程中容易遗忘先前习得的知识。为了解决这一问题,本文提出Lamer-SSL,一种参数高效的框架,结合了层感知的LoRA专家混合模块(Lamer)和重放策略。Lamer模块能够灵活平衡共享表示与语言特定表示,而层感知专家分配则将更多专家分配给语义信息更丰富的深层。同时,重放策略通过最小数据保留先验知识,缓解持续训练中的遗忘问题。实验表明,Lamer-SSL能有效扩展自监督模型至新语言,同时保持对已学语言的高性能,仅需2.14%的可训练参数。
AI 推荐理由
论文聚焦于模型在持续训练中防止遗忘并扩展多语言能力,属于自我进化与持续学习的核心研究。
论文信息