SLM-SS: Speech Language Model for Generative Speech Separation
📄 SLM-SS: Speech Language Model for Generative Speech Separation #语音分离 #语音大模型 #自回归模型 #语音增强 ✅ 7.5/10 | 前25% | #语音分离 | #自回归模型 | #语音大模型 #语音增强 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Tianhua Li(上海交通大学计算机科学与技术学院, 教育部人工智能重点实验室, 听觉认知与计算声学实验室) 通讯作者:Chenda Li†(同上; VUI Labs), Yanmin Qian†(同上; VUI Labs) 作者列表:Tianhua Li(上海交通大学计算机科学与技术学院), Chenda Li(上海交通大学计算机科学与技术学院, VUI Labs), Wei Wang(上海交通大学计算机科学与技术学院), Xin Zhou(上海交通大学计算机科学与技术学院), Xihui Chen(上海交通大学计算机科学与技术学院), Jianqing Gao(科大讯飞股份有限公司AI研究院), Yanmin Qian(上海交通大学计算机科学与技术学院, VUI Labs) 💡 毒舌点评 亮点在于将语音语言模型的生成范式用于语音分离,直指传统判别方法在“可懂度”上的软肋,并且用AR+NAR混合解码来平衡质量与效率,思路清晰且新颖。短板是模型规模仅为600M参数、仅在LibriMix单一数据集上验证,缺乏在更复杂真实场景(如强噪声、多说话人)和更大规模数据集上的锤炼,说服力打了折扣。 📌 核心摘要 要解决的问题:传统判别式语音分离方法在波形重建的信号指标上表现良好,但往往引入失真,导致分离后语音的可懂度下降,进而损害自动语音识别等下游任务的性能。 方法核心:提出SLM-SS框架,将语音分离视为离散多码本序列生成问题。首先使用Encodec编码器将语音转换为离散码本序列,并利用SOT策略进行拼接;然后采用基于WavLM编码器和Whisper式解码器的自回归(AR)模型预测零阶码本;接着,使用一个非自回归(NAR)模型基于低阶码本顺序预测高阶码本;最后,通过码本切分与Encodec解码器重建出分离后的单人语音。 新意:与先前的判别式方法(如BSRNN, Sepformer)和部分生成式方法不同,SLM-SS首次系统性地将语音语言模型(SLM)的建模能力引入语音分离任务,并创新性地结合了AR和NAR生成策略,以提升效率。 主要实验结果:在LibriMix数据集上,SLM-SS在下游任务一致性指标上显著优于基线。其字错误率(WER)为7.24,远低于BSRNN(29.8)和Sepformer(28.7),接近地面真值(5.19)。其Levenshtein音素相似度(LPS)为0.954,也优于基线(BSRNN: 0.885, Sepformer: 0.890)。主观平均意见得分(MOS)SLM-SS为4.19,高于BSRNN(4.01)和Sepformer(3.98)。消融实验证明,随着使用码本数量从1增加到8,WER下降,LPS上升;AR解码温度为1.0时性能最佳。 fig1 ...