MT-HuBERT: Self-Supervised Mix-Training for Few-Shot Keyword Spotting in Mixed Speech
📄 MT-HuBERT: Self-Supervised Mix-Training for Few-Shot Keyword Spotting in Mixed Speech #关键词检测 #自监督学习 #混合语音处理 #少样本学习 ✅ 7.0/10 | 前25% | #关键词检测 | #自监督学习 | #混合语音处理 #少样本学习 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junming Yuan (新疆大学计算机科学与技术学院 & 清华大学语音与语言技术中心,BNRist) 通讯作者:Dong Wang (清华大学语音与语言技术中心,BNRist)、Lantian Li (北京邮电大学人工智能学院)、Askar Hamdulla (新疆大学计算机科学与技术学院) 作者列表:Junming Yuan (新疆大学 & 清华大学)、Ying Shi (哈尔滨工业大学计算机科学与技术学院 & 清华大学)、Dong Wang (清华大学)、Lantian Li (北京邮电大学)、Askar Hamdulla (新疆大学) 💡 毒舌点评 亮点在于提出了一个思路清晰、动机合理的SSL预训练框架(MT-HuBERT),通过让模型预测混合语音中每个源信号的干净声学单元组合,优雅地解决了混合语音表示学习问题,并在多个基线和条件下取得了稳健的性能提升。短板是论文的实验仅基于Google Speech Commands这一相对简单的关键词集合,对于更复杂的混合场景(如不同语言、更长的短语、严重噪声)以及模型的计算效率缺乏深入探讨,其“State-of-the-Art”的宣称在当前比较范围内成立,但泛化能力有待更大规模的验证。 ...