GLA-GRAD++: An Improved Griffin-Lim Guided Diffusion Model for Speech Synthesis
📄 GLA-GRAD++: An Improved Griffin-Lim Guided Diffusion Model for Speech Synthesis #语音合成 #扩散模型 #领域适应 ✅ 7.5/10 | 前25% | #语音合成 | #扩散模型 | #领域适应 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Teysir Baoueb(LTCI, T´el´ecom Paris, Institut polytechnique de Paris, France) 通讯作者:未说明 作者列表:Teysir Baoueb(LTCI, T´el´ecom Paris, Institut polytechnique de Paris, France)、Xiaoyu Bie(同上)、Mathieu Fontaine(同上)、Ga¨el Richard(同上) 💡 毒舌点评 这篇论文的亮点在于将经典的信号处理算法(Griffin-Lim)与前沿的生成模型(扩散模型)结合得干净利落,通过一个“简单但关键”的修改(在预测y0项上进行一次性校正)同时解决了速度和鲁棒性两个痛点,在out-of-domain测试集上的提升相当亮眼。短板在于实验对比的基线不够丰富(未与同期的一些快速扩散声码器如FreGrad、SWave等直接对比),且未开源代码和模型权重,对于宣称“零样本”的方法,其实用价值评估需要等待社区验证。 📌 核心摘要 本文旨在解决基于扩散模型的声码器在条件梅尔频谱图与训练分布不匹配时性能下降且计算成本高的问题。其核心方法GLA-Grad++通过在扩散反向过程的早期,将神经网络预测的“干净语音”(预测y0)替换为从条件梅尔频谱图中通过一次Griffin-Lim算法(GLA)恢复的音频信号(˜x),来引导生成过程。与先前工作GLA-Grad(在多个扩散步骤中重复应用GLA)相比,本方法仅在扩散开始前应用一次GLA,显著加速了生成。实验表明,GLA-Grad++在感知语音质量(PESQ)和短时客观可懂度(STOI)上持续优于WaveGrad和GLA-Grad基线,尤其在未见过的说话人(VCTK数据集)场景下优势明显。例如,在VCTK上,GLA-Grad++的PESQ得分(3.772)相比WaveGrad(3.453)提升了约9.2%。该工作的实际意义在于为扩散声码器提供了一种无需重新训练、即插即用的增强方案,能有效提升合成语音在跨领域场景下的稳定性和质量。其主要局限性是方法性能(尤其是阶段切换点)对单个音频文件可能存在依赖性,论文建议未来可自适应选择最佳切换点。 🏗️ 模型架构 GLA-Grad++是一个针对扩散声码器(如WaveGrad)的推理阶段增强框架,而非一个独立的端到端模型。其整体架构可分为两个串联的阶段: 图1:GLA-Grad++ 总体框架图。Stage 1:校正步骤(上部):在开始扩散过程之前,从条件梅尔频谱图出发,首先应用梅尔滤波器组伪逆得到幅度谱,然后通过Griffin-Lim算法(GLA)进行相位恢复,最后通过iSTFT得到一个估计的时域音频信号˜x。Stage 2:“经典”扩散步骤(下部):从随机噪声开始执行标准的扩散反向过程。关键修改在于,在Stage 2的早期扩散步骤(步骤1至n)中,更新公式(公式9)中的第一项(预测y0项)被替换为Stage 1生成的˜x;当扩散过程进行到后续步骤(步骤n+1至T)时,则切换回标准的WaveGrad更新公式(公式5/8)。 ...