Discrete Diffusion for Generative Modeling of Text-Aligned Speech Tokens

📄 Discrete Diffusion for Generative Modeling of Text-Aligned Speech Tokens #语音合成 #扩散模型 #自回归模型 #语音表示 ✅ 7.5/10 | 前25% | #语音合成 | #扩散模型 | #自回归模型 #语音表示 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Pin-Jui Ku(NVIDIA;Georgia Institute of Technology) 通讯作者:未说明 作者列表:Pin-Jui Ku(NVIDIA;Georgia Institute of Technology),He Huang(NVIDIA),Jean-Marie Lemercier(NVIDIA),Subham Sekhar Sahoo(NVIDIA;Cornell Tech),Zhehuai Chen(NVIDIA),Ante Jukić(NVIDIA) 💡 毒舌点评 亮点:论文将新兴的离散扩散模型系统性地应用于语音token重建,并提供了迄今最全面的实证分析,结论(如FSQ优于RVQ、Conf-TopK采样更佳)对后续相关工作有直接的工程指导价值。短板:论文主要贡献是“应用与分析”,而非提出基础理论或解决语音token化中的核心难题(如语义与声学信息的完美解耦),且未探讨其方法对下游语音大模型(如TTS、ASR)性能的影响,使其深度和影响力受限。 📌 核心摘要 要解决什么问题:现有的TASTE语音token化框架依赖自回归(AR)解码器来重建语音,这导致推理速度慢,且重建质量可能非最优。 方法核心是什么:提出用离散扩散模型(DDM)替代TASTE中的AR解码器。模型在推理时,通过迭代去噪(从全掩码到逐步揭示)来并行预测S3 token序列,再由vocoder生成波形。 与已有方法相比新在哪里:首次在TASTE框架中系统性地应用并分析DDM。与AR解码器相比,DDM解码具有并行性,且质量更高。同时,论文系统比较了向量量化方案(RVQ vs. FSQ),发现FSQ能显著提升性能。 主要实验结果如何:在LibriSpeech数据集上,DDM解码器相比AR基线实现了3.3倍的推理速度提升(测试集1.65秒 vs. 5.48秒)。使用RVQ量化时,DDM的WER比AR降低35%(测试集:5.10% vs. 7.60%),UT-MOS提升0.45(4.27 vs. 3.82)。使用FSQ量化后,性能进一步提升,AR模型的WER相对降低35%,UT-MOS提升0.14。DDM模型在10步推理时即可达到峰值性能,甚至单步推理也基本可用。关键实验结果对比如下表: 模型 量化方式 测试集 WER (%) ↓ UT-MOS ↑ AR基线 4L-RVQ test-clean 7.60 3.82 本文DDM 4L-RVQ test-clean 5.10 4.27 本文DDM 4L-FSQ test-clean 4.00 4.30 本文DDM 10步 test-clean 3.70 4.28 本文DDM 单步 test-clean 5.14 3.81 实际意义是什么:为语音token化中的高效、高质量解码提供了一个优于自回归范式的新方案,展示了离散扩散模型在条件生成任务中的潜力,并提供了工程实践上的具体指导(如采样器选择、步数设置)。 主要局限性是什么:模型性能严重依赖一个外部长度预测器来估计S3 token序列长度;论文未验证该改进的语音表示对下游语音大模型(如端到端TTS、ASR)的具体增益;其优势建立在强条件(文本+TASTE embedding)上,对于无条件或弱条件生成任务的普适性未探讨。 🏗️ 模型架构 本文模型架构建立在TASTE框架之上,包含两个主要部分:TASTE Tokenizer和解码器(AR或DDM)。整体流程如图1所示。 ...

2026-04-29

DSRMS-TransUnet: A Decentralized Non-Shifted Transunet for Shallow Water Acoustic Source Range Estimation

📄 DSRMS-TransUnet: A Decentralized Non-Shifted Transunet for Shallow Water Acoustic Source Range Estimation #声源定位 #自回归模型 #端到端 #鲁棒性 #模型评估 🔥 8.0/10 | 前10% | #声源定位 | #端到端 | #自回归模型 #鲁棒性 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Bin Zhang(中国海洋大学计算机科学与技术系) 通讯作者:Peishun Liu(中国海洋大学计算机科学与技术系) 作者列表:Bin Zhang† (中国海洋大学计算机科学与技术系), Jiawen He† (中国海洋大学计算机科学与技术系), Liang Wang‡ (中国海洋大学海洋技术系), Wenxu Wang† (中国海洋大学计算机科学与技术系), Ruichun Tang† (中国海洋大学计算机科学与技术系), Peishun Liu†⋆ (中国海洋大学计算机科学与技术系) 💡 毒舌点评 论文亮点在于巧妙地将复杂的复值协方差矩阵分解为双通道实值图像进行处理,避免了复杂的复数运算,同时用深度可分离卷积和RMSNorm大幅降低了原始TransUNet的计算量,实现了“轻量化”与“高性能”的结合。然而,论文标题和摘要中强调的“去中心化”和“非移位”这两个关键特性,在正文的方法描述和实验中几乎找不到具体的实现细节或与传统集中式、移位机制的对比实验,使得这部分贡献显得有些悬空。 📌 核心摘要 要解决什么问题? 水下声学被动定位中,声源测距任务受介质吸收、多径效应和噪声影响严重,传统匹配场处理方法对信噪比敏感且依赖精确的环境参数,性能不稳定。 方法核心是什么? 提出DSRMS-TransUNet模型。核心在于:a) 将接收信号的复协方差矩阵分解为实部和虚部两个独立通道输入,保留了完整的空间结构;b) 在编码器-解码器框架中用深度可分离卷积替代标准卷积以减少参数;c) 引入基于RMSNorm的轻量化视觉Transformer(RViT)以增强全局特征捕获能力并简化计算。 与已有方法相比新在哪里? 首次提出将复协方差矩阵分解为双通道实值特征图输入深度学习模型。创新性地结合了DSC的轻量化和ViT的长程依赖建模能力,并对ViT进行了针对水声特征的RMSNorm优化。采用端到端的网格分类方式进行测距。 主要实验结果如何? 在模拟数据上,模型在噪声条件下相比基线(TransUNet)准确率提升超过19%。在真实数据集SWellEx-96的两个阵列(HLAH, HLAS)上,分别取得了91%和94%的准确率,均方根误差(RMSE)低至0.0426和0.1011,在准确率和误差指标上均优于MFP、Transformer、Conformer等传统及深度学习方法。关键实验数据见下表。 模型 参数量 仿真-无噪声准确率 HLAH准确率 HLAS准确率 HLAH RMSE HLAS RMSE Baseline (TransUNet) 74,905,776 74.75% 78% 78% 0.1426 0.3597 DS-TransUnet 54,834,050 82.75% 84% 87% 0.0991 0.3249 DSRMS-TransUnet 54,817,666 100.00% 91% 94% 0.0426 0.1011 MFP (传统方法) - - - - 0.2679 0.4897 实际意义是什么? 为浅海环境下的水下被动声源测距提供了一种高精度、高鲁棒性的深度学习解决方案,其轻量化的设计有利于在资源受限的水下设备上部署。 主要局限性是什么? a) 论文标题中的“去中心化”和“非移位”特性在方法描述中未详细阐述,具体实现机制不明确;b) 对于水下声学这一高度依赖物理模型的领域,纯数据驱动模型的泛化性和在极端未知环境下的鲁棒性有待更多验证;c) 训练策略、超参数等复现关键信息缺失。 🏗️ 模型架构 DSRMS-TransUNet是一个端到端的深度学习模型,整体分为特征提取、特征学习、特征评估三个阶段。 ...

2026-04-29

Etude: Piano Cover Generation with a Three-Stage Approach — Extract, Structuralize, and Decode

📄 Etude: Piano Cover Generation with a Three-Stage Approach — Extract, Structuralize, and Decode #音乐生成 #生成模型 #自回归模型 #音乐信息检索 ✅ 7.0/10 | 前25% | #音乐生成 | #自回归模型 | #生成模型 #音乐信息检索 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Tse-Yang Chen(National Taiwan University) 通讯作者:论文中未明确标注通讯作者 作者列表:Tse-Yang Chen(National Taiwan University), Yuh-Jzer Joung(National Taiwan University) 💡 毒舌点评 论文的核心亮点在于三阶段解耦架构的设计非常巧妙,通过“提取-结构化解码”的流水线,强制让模型关注节拍对齐这一被以往工作忽视的关键,从而在主观听感上实现了质的飞跃(尤其是流畅度)。然而,其短板也显而易见:所构建的~4700首歌曲数据集虽然规模尚可,但高度集中于J-pop/K-pop,方法的泛化能力在其他音乐风格(如古典、爵士)上的有效性存疑,且“风格注入”的实际控制粒度和效果在论文中并未得到充分展示。 📌 核心摘要 问题:现有深度学习自动钢琴编曲(APCG)模型在生成的钢琴谱中经常出现节奏不一致、拍子混乱等问题,导致音乐结构感缺失,整体质量不高。 核心方法:提出三阶段框架“Etude”。Extract阶段从原始音频中提取密集的、类MIDI的音乐事件特征;Structuralize阶段(与Extract并行)使用预训练Beat-Transformer提取精确的节拍框架(Fbeat);Decode阶段基于Transformer,以小节为单位,结合提取的特征(X)、风格向量和前四小节的上下文,自回归生成目标钢琴序列(Y)。 创新点:相比已有两阶段模型(如PiCoGen),新方法显式解耦了节拍检测,保证了结构一致性;设计了极简的Tiny-REMI标记化方案,移除了对APCG任务冗余的Token,降低了学习难度;引入了可控的风格向量,允许用户调节音乐织体和表情。 主要实验结果:在100首测试集上,Etude(默认设置)在主观平均分(OVL)上达到3.50(满分5),显著优于基线PiCoGen2(2.97)、AMT-APC(2.46)和Music2MIDI(2.27),且统计显著(p<0.001)。在所提出的结构相似度(WPD)、节奏网格一致性(RGC)和节奏模式复杂度(IPE)等客观指标上,也表现出更接近人类演奏的平衡状态。详细结果见下表。 模型 主观总体分 (OVL) ↑ 主观流畅度 (FL) ↑ WPD ↓ RGC ↓ IPE Human 3.92 ± 0.96 4.03 ± 1.02 0.49 0.042 10.13 Etude - Default 3.50 ± 0.99 3.73 ± 0.98 0.21 0.020 9.02 Etude - Prompted 3.46 ± 1.00 3.70 ± 1.05 0.23 0.026 9.11 Etude Extractor 3.33 ± 1.00 3.31 ± 1.13 0.12 0.028 10.62 PiCoGen2 [3] 2.97 ± 1.04 3.33 ± 1.12 1.00 0.059 7.97 AMT-APC [4] 2.46 ± 1.04 2.37 ± 1.11 0.09 0.114 10.69 Music2MIDI [5] 2.27 ± 1.07 2.29 ± 1.13 0.18 0.160 8.94 实际意义:该方法显著提升了自动钢琴编曲的音乐性和结构合理性,使其主观评价接近人类水平,为社交媒体内容创作、音乐教育辅助等应用提供了更强大的工具。 局限性:数据集主要基于流行音乐(J/K-pop),在其他音乐类型上的有效性未经验证;风格控制虽然引入,但仅以三个离散等级(低、中、高)实现,精细度和可控范围有限;论文未公开模型权重。 🏗️ 模型架构 Etude的整体架构(如图1所示)是一个清晰的三阶段流水线,旨在解耦自动钢琴编曲的复杂性。 ...

2026-04-29

Frame-Stacked Local Transformers for Efficient Multi-Codebook Speech Generation

📄 Frame-Stacked Local Transformers for Efficient Multi-Codebook Speech Generation #语音合成 #语音大模型 #自回归模型 #局部Transformer ✅ 7.5/10 | 前25% | #语音合成 | #自回归模型 | #语音大模型 #局部Transformer 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Roy Fejgin(NVIDIA) 通讯作者:Roy Fejgin (rfejgin@nvidia.com), Paarth Neekhara (pneekhara@nvidia.com) 作者列表:Roy Fejgin(NVIDIA)、Paarth Neekhara(NVIDIA)、Xuesong Yang(NVIDIA)、Edresson Casanova(NVIDIA)、Ryan Langman(NVIDIA)、Jaehyeon Kim(NVIDIA)、Subhankar Ghosh(NVIDIA)、Shehzeen Hussain(NVIDIA)、Jason Li(NVIDIA) 💡 毒舌点评 亮点在于其工程化的系统思维和扎实的消融实验,将“局部Transformer”这个相对概念性的模块,通过与“帧堆叠”的结合,转化为了可量化的速度提升(高达5.5x)和可操作的设计指南,非常实用。短板是MaskGIT变体在高堆叠因子(4x)下的表现(如MOS和SSIM的下降)显得有些“拖后腿”,暗示了迭代式非自回归方法在建模更复杂依赖时仍面临训练和调参的挑战,且论文未能与当前最前沿的TTS系统(如VALL-E 2等)进行直接的质量对比。 📌 核心摘要 本文旨在解决基于大语言模型的语音合成系统中,多码本声学码预测所面临的依赖性建模与解码效率的矛盾。方法核心是引入一个轻量的“局部Transformer”来替代传统的并行预测头,该LT以迭代方式(自回归或MaskGIT)对单帧内的多个码本进行依赖性建模;同时,利用LT分担计算负载,让主Transformer预测多帧(帧堆叠),从而提升整体吞吐率。与已有方法相比,新在系统性地评估了两种LT架构(AR与MaskGIT)与不同帧堆叠因子的组合,并在控制模型总参数量的前提下进行了公平比较。主要实验结果显示:1)所有LT模型在Fréchet Distance(FD)指标上均优于并行预测基线;2)使用AR LT且堆叠因子为2时,在SSIM(0.757 vs 0.695)和MOS(3.70 vs 3.46)上与基线持平或更优,同时速度快2.1倍;3)堆叠因子为4时,AR LT仍能保持较好的MOS(3.71),而MaskGIT的MOS显著下降(3.41)。实际意义在于为工业部署提供了明确的指南:质量优先选AR LT(无堆叠),速度与质量平衡选2x堆叠AR LT,极致速度可选4x堆叠LT。主要局限性是MaskGIT方法在高堆叠因子下性能不稳定,且研究未涉及与最新SOTA TTS模型的横向对比。 ...

2026-04-29

Gelina: Unified Speech and Gesture Synthesis Via Interleaved Token Prediction

📄 Gelina: Unified Speech and Gesture Synthesis Via Interleaved Token Prediction #语音合成 #手势生成 #自回归模型 #流匹配 #多模态模型 ✅ 7.0/10 | 前50% | #语音合成 | #自回归模型 | #手势生成 #流匹配 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Téo Guichoux(ISIR, Sorbonne Université;STMS Lab – IRCAM, Sorbonne Université) 通讯作者:未说明 作者列表:Téo Guichoux(ISIR, Sorbonne Université;STMS Lab – IRCAM, Sorbonne Université), Théodor Lemerle(STMS Lab – IRCAM, Sorbonne Université), Shivam Mehta(KTH皇家理工学院), Jonas Beskow(KTH皇家理工学院), Gustav Eje Henter(KTH皇家理工学院), Laure Soulier(ISIR, Sorbonne Université), Catherine Pelachaud(ISIR, Sorbonne Université;CNRS), Nicolas Obin(STMS Lab – IRCAM, Sorbonne Université) 💡 毒舌点评 这篇论文的亮点在于其“交错token预测”的架构设计直觉上非常优雅,为多模态序列建模提供了一个统一且时序对齐的方案,并在同步性上取得了可观的实验结果。然而,其最大的短板在于“统一”的代价——它在语音生成质量上显著落后于最新的纯语音SOTA(如CosyVoice-2),在手势丰富度(如手指)上也进行了简化,这使其宣称的“统一”和“竞争”显得有些取舍过重,更像是一次有潜力的概念验证而非成熟的系统性方案。 ...

2026-04-29

HD-PPT: Hierarchical Decoding of Content- and Prompt-Preference Tokens for Instruction-Based TTS

📄 HD-PPT: Hierarchical Decoding of Content- and Prompt-Preference Tokens for Instruction-Based TTS #语音合成 #大语言模型 #自回归模型 #对比学习 #模型评估 🔥 8.0/10 | 前25% | #语音合成 | #大语言模型 | #自回归模型 #对比学习 学术质量 5.5/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Sihang Nie(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Sihang Nie(华南理工大学)、Xiaofen Xing(华南理工大学)、Jingyuan Xing(华南理工大学)、Baiji Liu(华南理工大学,广州趣玩网络科技有限公司)、Xiangmin Xu(佛山大学,华南理工大学) 💡 毒舌点评 亮点: 论文将“精细控制”这个模糊的目标,拆解为可操作的、由两个专用token监督的分层生成步骤,这种“结构化解耦”的思路非常清晰且有效,实验数据也确实支撑了其优越性。 短板: 训练过程描述不够细致,例如文本指令的预处理、训练时的正则化细节(如何概率性地掩码隐藏状态和提示token)不够明确,且代码未开源,使得复现其“精妙”的工程实现颇具挑战。 📌 核心摘要 问题: 现有基于大语言模型的指令TTS(Instruct-TTS)方法,试图将单层的文本指令直接映射到多层的语音token上,导致精细控制能力不足,存在“层级不匹配”问题。 方法核心: 提出HD-PPT框架,包含两个核心创新:a) 设计一个新的语音编解码器(Speech Token Codec),通过ASR和CLAP两个监督目标,将语音token解耦为“内容偏好token”(语义)和“提示偏好token”(风格);b) 设计分层解码策略,引导LLM按“内容基础 -> 风格渲染 -> 完整声学表征”的顺序生成token。 新意: 相比于直接建模单一语音token序列的方法,本文首次将语音token在生成过程中显式地结构化解耦,并分别用语义和风格目标进行监督,实现了从“隐式映射”到“显式分层生成”的范式转变。 主要结果: 在TextrolSpeech和EmoVoice-DB两个数据集上,HD-PPT在主观自然度(MOS-N)、风格一致性(MOS-S)和情感相似度(EMO-SIM)指标上均取得了最佳成绩(见表1)。消融实验证明,移除任一偏好token或改变解码策略都会导致性能下降。 实际意义: 为实现高保真、高可控的语音合成提供了有效框架,提升了LLM在语音生成任务中的指令遵循能力,对智能语音助手、有声内容创作等应用有推动作用。 主要局限: 多组件架构增加了模型复杂度和部署难度;训练细节部分缺失,不利于完全复现;论文中承认对低资源语言的适应性是一个挑战。 表1:在测试集上的主观与客观对比结果 ...

2026-04-29

High-Fidelity Speech Enhancement Via Discrete Audio Tokens

📄 High-Fidelity Speech Enhancement Via Discrete Audio Tokens #语音增强 #自回归模型 #语音大模型 #数据集 #预训练 ✅ 7.5/10 | 前25% | #语音增强 | #自回归模型 | #语音大模型 #数据集 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Luca A. Lanzendörfer(未明确标注,但根据作者列表顺序推测) 通讯作者:未说明 作者列表:Luca A. Lanzendörfer (ETH Zurich), Frédéric Berdoz (ETH Zurich), Antonis Asonitis (ETH Zurich), Roger Wattenhofer (ETH Zurich) 💡 毒舌点评 亮点在于其架构的“暴力美学”——用一个足够大的语言模型(1B LLaMA)和足够高分辨率的离散表示(44.1kHz DAC),将复杂的语音增强多阶段流水线简化为直接的token-to-token转换,并取得了SOTA结果,为“大力出奇迹”在语音领域提供了又一例证。短板在于这种简化高度依赖预训练的高质量编解码器(DAC)和计算资源,论文对模型计算成本、推理延迟等实际部署考量几乎只字未提,且在处理特定失真(如DNS挑战中的背景噪声抑制)时并未展现出压倒性优势。 📌 核心摘要 这篇论文旨在解决现有基于语言模型的语音增强方法局限于低采样率(16kHz)和依赖复杂多阶段架构的问题,以实现高保真(44.1kHz)的语音增强与带宽扩展。 方法核心是提出一个名为DAC-SE1的单阶段框架,该框架直接使用44.1kHz的DAC离散音频令牌作为输入和输出,由一个基于LLaMA的1B参数自回归模型进行处理,无需额外的语义编码器或多阶段流水线。 与已往工作相比,新方法的新颖之处在于:1)直接操作高分辨率DAC令牌,保留了精细的声学细节;2)架构高度简化,统一了增强与带宽扩展任务;3)通过扩大模型参数和训练数据规模来提升性能。 主要实验结果表明,DAC-SE1在HiFiTTS-2测试集的客观指标(如DNSMOS OVRL: 2.95)和MUSHRA主观评分(58.3分)上均优于LLaSE-G1和VoiceFixer等基线。在ICASSP 2022 PLC挑战中,其PLCMOS分数达到4.34,超越了所有对比方法。在ICASSP 2023 DNS挑战中,性能与最强基线持平。 该工作的实际意义在于证明了通过简单、可扩展的自回归语言模型范式,结合高质量的音频离散表示,能够实现统一且高质量的语音增强任务,为未来构建通用音频生成模型提供了新思路。 主要局限性是论文未详细讨论模型的计算效率、训练成本以及在不同噪声类型或极低信噪比条件下的泛化能力,且其性能提升部分依赖于庞大的模型参数,可能限制了实际部署场景。 ...

2026-04-29

Joint Autoregressive Modeling of Multi-Talker Overlapped Speech Recognition and Translation

📄 Joint Autoregressive Modeling of Multi-Talker Overlapped Speech Recognition and Translation #语音识别 #语音翻译 #自回归模型 #多任务学习 #端到端 ✅ 7.0/10 | 前25% | #语音识别 #语音翻译 | #自回归模型 #多任务学习 | #语音识别 #语音翻译 学术质量 0.7/7 | 选题价值 0.75/2 | 复现加成 0.3 | 置信度 中 👥 作者与机构 第一作者:Tomohiro Tanaka(NTT, Inc., Human Informatics Laboratories) 通讯作者:未说明 作者列表:Tomohiro Tanaka(NTT, Inc., Human Informatics Laboratories)、Ryo Masumura(NTT, Inc., Human Informatics Laboratories)、Naoki Makishima(NTT, Inc., Human Informatics Laboratories)、Mana Ihori(NTT, Inc., Human Informatics Laboratories)、Naotaka Kawata(NTT, Inc., Human Informatics Laboratories)、Shota Orihashi(NTT, Inc., Human Informatics Laboratories)、Satoshi Suzuki(NTT, Inc., Human Informatics Laboratories)、Taiga Yamane(NTT, Inc., Human Informatics Laboratories) 💡 毒舌点评 这篇论文的核心贡献是清晰且务实的:将多说话人重叠语音的识别(ASR)和翻译(ST)从两个独立的模型合并为一个联合自回归模型,从而解决了输出时说话人数量不匹配和未对齐的痛点。其序列化输出训练(SOT)的扩展应用自然流畅,实验数据也支撑了方法的有效性。然而,论文最大的短板在于实验部分严重依赖通过混合单人语音合成的“多说话人”数据,这与真实世界中包含回声、不同混响、说话人重叠程度变化的会议或对话场景存在显著差距,削弱了其结论在实际应用中的说服力。 ...

2026-04-29

Lattice-Guided Consistency Regularization of Dual-Mode Transducers for Automatic Speech Recognition

📄 Lattice-Guided Consistency Regularization of Dual-Mode Transducers for Automatic Speech Recognition #语音识别 #自回归模型 #一致性正则化 #端到端 #语码转换 🔥 8.0/10 | 前25% | #语音识别 | #一致性正则化 | #自回归模型 #端到端 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Wen Ding(NVIDIA Corporation) 通讯作者:未说明(论文中未明确指定) 作者列表:Wen Ding(NVIDIA Corporation)、Hainan Xu(NVIDIA Corporation)、Jagadeesh Balam(NVIDIA Corporation)、Junjie Lai(NVIDIA Corporation) 💡 毒舌点评 亮点:方法设计巧妙,将一致性正则化与语音格(lattice)的后验概率权重相结合,使得训练能聚焦于关键的对齐位置,避免了对无关位置的无效正则化,这比朴素的随机掩码(如HAINAN)更精巧。短板:尽管在语码切换(SEAME)数据集上验证了方法的有效性,但实验主要基于中文和英中切换场景,对于其他语言或更复杂的语音条件(如嘈杂、多说话人)下的泛化能力,论文未提供证据。 📌 核心摘要 这篇论文旨在解决双模式(自回归AR与非自回归NAR)语音识别模型中,NAR推理模式通常性能落后于AR模式的问题。方法核心是在Token-and-Duration Transducer (TDT)模型的基础上,提出一种名为Lattice-guided Consistency Regularization (LCR)的训练框架。该框架的损失函数由三部分组成:标准的AR TDT损失、NAR TDT损失(预测器输入被掩码),以及一个一致性正则化损失。新意在于,该一致性损失(L2距离或KL散度)用于最小化AR与NAR预测分布之间的差异,但其权重由格(lattice)后验概率加权,从而聚焦于模型认为最可能发生的语音-文本对齐路径。实验结果显示,在AISHELL-1单语普通话任务上,LCR-T模型在AR模式下相比HAINAN基线获得了6.42%的相对CER降低;在SEAME英中语码切换任务上,获得了7.76%和7.09%的相对MER降低。其实际意义在于提供了一个统一、高效的训练框架,使得单个模型在两种推理模式下都能达到顶尖性能,尤其NAR模式也能超越许多传统AR模型。主要局限性是实验场景相对集中(普通话及英中切换),缺乏对更多语言和复杂声学条件的验证。 🏗️ 模型架构 本文提出的模型称为LCR-T (Lattice-guided Consistency Regularization Transducer),其基础是TDT (Token-and-Duration Transducer)架构,并借鉴了HAINAN实现双模式推理的设计。 ...

2026-04-29

MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion via Mean Flows

📄 MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion via Mean Flows #语音转换 #零样本 #流匹配 #自回归模型 #流式处理 ✅ 7.5/10 | 前25% | #语音转换 | #流匹配 | #零样本 #自回归模型 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Guobin Ma(西北工业大学计算机学院, Audio, Speech and Language Processing Group (ASLP@NPU)) 通讯作者:Lei Xie(西北工业大学计算机学院, ASLP@NPU)、Pengcheng Zhu(吉利汽车研究院(宁波)有限公司) 作者列表: Guobin Ma(西北工业大学计算机学院, ASLP@NPU) Jixun Yao(西北工业大学计算机学院, ASLP@NPU) Ziqian Ning(西北工业大学计算机学院, ASLP@NPU) Yuepeng Jiang(西北工业大学计算机学院, ASLP@NPU) Lingxin Xiong(吉利汽车研究院(宁波)有限公司) Lei Xie(西北工业大学计算机学院, ASLP@NPU) Pengcheng Zhu(吉利汽车研究院(宁波)有限公司) 💡 毒舌点评 亮点:用仅14M参数的轻量模型,在流式推理中实现了远超100M级模型的零样本转换质量与效率(RTF低至0.136),是“小模型办大事”的典范。 短板:系统依赖固定的预训练ASR和说话人编码器模块,这些模块的性能上限决定了最终效果,核心创新更像是对现有组件的巧妙“集成”与“调参”。 ...

2026-04-29