Domain-Aware Scheduling for ASR Fine-Tuning

📄 Domain-Aware Scheduling for ASR Fine-Tuning #语音识别 #领域适应 #低资源 #数据选择 ✅ 6.5/10 | 前50% | #语音识别 | #领域适应 | #低资源 #数据选择 学术质量 6.2/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nikolaos Lagos(Naver Labs Europe, France) 通讯作者:未说明 作者列表:Nikolaos Lagos(Naver Labs Europe, France), Ioan Calapodescu(Naver Labs Europe, France) 💡 毒舌点评 该论文提出了一个在低资源场景下微调ASR系统的实用策略(按域相似度排序数据并分阶段训练),实验结果一致且增益明确,对实际部署者有吸引力。但其核心贡献是对现有数据选择方法(Lagos et al., 2024)的一个后处理步骤,而非根本性架构或算法创新,且方法效果高度依赖于数据选择步骤的质量。 📌 核心摘要 要解决的问题:在真实场景中,用于微调ASR系统的目标域数据往往稀缺。常用的解决方案是从大型开源数据集中选择与目标域相似的域外数据。传统方法在使用这些选中的数据时采用随机顺序,导致训练效果不佳。 方法核心:提出“域感知调度”(DAS)。该方法首先利用一个仅1分钟的目标域种子数据,通过KNN搜索对选定的域外数据按与目标域的距离进行排序(从最远到最近)。然后,将训练过程分为多个阶段,按顺序使用距离递增的数据组进行训练,每个阶段都从上一阶段的最优检查点继续。 与已有方法相比新在哪里:与传统课程学习按“难度”排序不同,DAS按“域距离”排序。与之前直接使用排序数据的“仅选择”基线相比,DAS引入了基于距离的顺序调度机制。论文声称这是首个在ASR微调中明确利用域相似度进行调度的方法。 主要实验结果:在ESB基准的7个英语数据集上,使用100小时训练预算,DAS方法相对于随机选择和“仅选择”基线,平均WER分别降低了4.14个点(17.29%相对降低)和2.52个点(11.32%相对降低)。在不同训练预算(10/50/100小时)下,DAS均表现出稳定改进。具体结果见下表。 数据集 Random WER(↓) SO WER(↓) DAS WER(↓) DAS vs SO WERR(%) (↑) DAS vs Random WERR(%) (↑) LibriSpeech-clean 6.75±0.35 6.59±0.45 4.63±0.10 29.71 31.44 LibriSpeech-other 14.44±0.58 14.31±0.41 10.74±0.05 24.92 25.62 CommonVoice 37.31±0.43 35.55±1.47 32.77±0.44 7.81 12.17 Tedlium 14.49±2.07 11.74±0.62 9.34±0.9 20.44 35.53 Voxpopuli 19.32±0.23 17.37±0.86 15.62±0.24 10.08 19.18 AMI 39.33±0.96 34.60±1.73 32.14±0.6 7.1 18.28 Earnings22 38.84±0.72 36.76±1.91 32.65±1.3 11.2 15.95 Gigaspeech 21.13±0.22 21.81±0.67 20.59±0.74 5.58 2.82 平均值 23.95±0.77 22.34±1.10 19.81±0.55 11.32 17.29 实际意义:该方法为无法依赖大量领域内数据的从业者(如低资源或隐私受限场景)提供了一种提升ASR微调性能的实用方案,可以作为现有数据选择技术的补充。 主要局限性:方法的有效性高度依赖于数据选择步骤(KNN搜索)的质量,这在Gigaspeech数据集上表现明显(该数据集本身多样性高)。论文未探索其他调度顺序(如从近到远)或组内多样性的控制,属于初步研究。 🏗️ 模型架构 论文中并未提出一个全新的端到端神经网络模型,而是提出了一种 “训练调度”(Scheduling)策略,应用于现有ASR模型的微调过程中。其核心流程是一个两阶段框架: ...

2026-04-29