Task Vector in TTS: Toward Emotionally Expressive Dialectal Speech Synthesis

📄 Task Vector in TTS: Toward Emotionally Expressive Dialectal Speech Synthesis #语音合成 #流匹配 #零样本 #低资源 #情感方言 ✅ 7.0/10 | 前50% | #语音合成 | #流匹配 | #零样本 #低资源 学术质量 5.8/7 | 选题价值 1.0/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:未说明(作者列表标注“Pengchao Feng1,2∗, Yao Xiao1∗”为共同第一作者) 通讯作者:Xie Chen1,2†(上海交通大学X-LANCE实验室) 作者列表:Pengchao Feng(1上海交通大学X-LANCE实验室, 2上海创新研究院),Yao Xiao(1上海交通大学X-LANCE实验室),Ziyang Ma(1上海交通大学X-LANCE实验室),Zhikang Niu(1上海交通大学X-LANCE实验室, 2上海创新研究院),Shuai Fan(1上海交通大学X-LANCE实验室),Yao Li(3上海航空电器有限公司),Sheng Wang(1上海交通大学X-LANCE实验室, 3上海航空电器有限公司),Xie Chen(1上海交通大学X-LANCE实验室, 2上海创新研究院) 💡 毒舌点评 亮点在于其“分而治之”的策略,通过独立建模再分层整合,巧妙地绕过了缺乏方言情感联合标注数据的难题,并在实验上证明了其优于简单串联或直接合并的基线。短板则是该方法的泛化能力存疑,在对另一个主流TTS框架(CosyVoice)上尝试时效果不佳,暗示其可能过度依赖于特定的F5-TTS架构特性,通用性打了折扣。 📌 核心摘要 要解决什么问题:在语音合成领域,如何在缺乏大量方言与情感联合标注数据的情况下,生成同时具有特定方言口音和丰富情感表达的语音。 方法核心是什么:提出了一种两阶段方法“分层表达向量(HE-Vector)”。第一阶段,基于F5-TTS模型,通过微调并提取“任务向量”来独立构建表示方言和情感的“表达向量(E-Vector)”。第二阶段,设计了一个“分层合并策略”,将方言E-Vector应用于模型的文本嵌入层和早期DiT块(负责音素发音),将情感E-Vector应用于后期DiT块(负责韵律语调),从而在推理时融合两种风格。 与已有方法相比新在哪里:相比于直接合并不同风格的任务向量(会导致风格干扰)或采用双阶段流水线(易造成误差累积),该方法的核心创新在于提出了基于模型层功能分工的“分层整合”机制,使得方言和情感特征能更独立、更少干扰地被建模和融合,且无需联合标注数据。 主要实验结果如何:在方言合成任务上,E-Vector增强模型(α=3.0)在8个方言上的平均MOS达到3.18,显著优于CosyVoice2(2.62)和全量微调模型(1.85)。在情感方言合成任务上,HE-Vector框架取得最佳平均MOS(2.83),优于完全合并E-Vector(2.76)、双阶段流水线(2.56)和CosyVoice2(1.87)。具体MOS对比见下表: 方法 平均MOS (方言合成) 平均MOS (情感方言合成) CosyVoice2 2.62 1.87 FT (微调) 1.85 未提供 FT-last (过度微调) 2.85 未提供 E-Vector (α=3.0) 3.18 未提供 LoRA E-Vector 2.35 未提供 Fully E-Vector 未提供 2.76 Dual-stage 未提供 2.56 HE-Vector (Ours) 未提供 2.83 实际意义是什么:为低资源甚至零样本下的复杂表达性语音合成(如方言+情感)提供了一种数据高效的解决方案,有助于方言文化遗产保护和更自然的个性化语音交互。 主要局限性是什么:E-Vector的构建基于任务向量的线性缩放,而论文分析指出风格迁移的参数变化并非严格线性;该方法在其他TTS架构(如CosyVoice)上效果不佳,表明其通用性有限;实验中使用的方言和情感数据集部分为内部数据,未完全公开。 🏗️ 模型架构 本文提出的方法(HE-Vector)是一个两阶段的框架,旨在增强预训练TTS模型(F5-TTS)以实现可控的表达性语音合成。整体架构如图1所示。 ...

2026-04-29

TMD-TTS: A Unified Tibetan Multi-Dialect Text-to-Speech Framework for Ü-Tsang, Amdo and Kham Speech Dataset Generation

📄 TMD-TTS: A Unified Tibetan Multi-Dialect Text-to-Speech Framework for Ü-Tsang, Amdo and Kham Speech Dataset Generation #语音合成 #流匹配 #方言建模 #低资源 #数据集 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #方言建模 #低资源 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yutong Liu(电子科技大学信息与软件工程学院)、Ziyue Zhang(电子科技大学信息与软件工程学院)(论文显示两人贡献相等,标注为†) 通讯作者:Yongbin Yu(电子科技大学信息与软件工程学院)、Xiangxiang Wang(电子科技大学信息与软件工程学院)、Nyima Tashi(电子科技大学信息与软件工程学院 & 西藏大学信息科学技术学院) 作者列表:Yutong Liu(电子科技大学信息与软件工程学院),Ziyue Zhang(电子科技大学信息与软件工程学院),Ban Ma-bao(电子科技大学信息与软件工程学院),Renzeng Duojie(西藏大学信息科学技术学院),Yuqing Cai(电子科技大学信息与软件工程学院),Yongbin Yu(电子科技大学信息与软件工程学院),Xiangxiang Wang(电子科技大学信息与软件工程学院),Fan Gao(电子科技大学信息与软件工程学院),Cheng Huang(美国德克萨斯大学西南医学中心眼科),Nyima Tashi(电子科技大学信息与软件工程学院 & 西藏大学信息科学技术学院) 💡 毒舌点评 亮点在于其问题定义精准——直接针对藏语三大方言互不相通的现实痛点,并设计了端到端的解决方案与数据生成管线,形成了从模型到数据集的完整闭环。短板在于其核心方法DSDR-Net的本质是在Transformer的FFN中引入了基于方言ID的条件计算,这属于对标准架构的合理扩展,理论创新深度有限,且论文对训练损失等细节描述不足。 ...

2026-04-29

Towards Real-Time Generative Speech Restoration with Flow-Matching

📄 Towards Real-Time Generative Speech Restoration with Flow-Matching #语音增强 #流匹配 #实时处理 #模型比较 ✅ 6.0/10 | 前50% | #语音增强 | #流匹配 | #实时处理 #模型比较 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Tsun-An Hsieh(University of Illinois Urbana-Champaign) 通讯作者:未说明 作者列表:Tsun-An Hsieh(University of Illinois Urbana-Champaign), Sebastian Braun(Microsoft Research) 💡 毒舌点评 这篇论文首次将流匹配应用于实时语音恢复并实现了20ms的极低算法延迟,工程目标明确;然而,其核心结论“流匹配在实时约束下性能未超越GAN”多少有些令人失望,削弱了创新价值,且训练细节的缺失让“探索”的结论难以被他人验证。 📌 核心摘要 要解决什么问题:现有生成式语音增强/恢复模型(如基于扩散的)通常需要大量推理步骤,导致高延迟,无法满足实时通信应用(<100ms延迟)的需求。 方法核心是什么:采用基于条件流匹配(Conditional Flow-Matching, FM)的生成框架,并设计了仅使用因果卷积且在时间维度不下采样的网络架构(Causal NCSN++),将算法延迟降至20ms。同时,探索了更轻量的ConvGLU-UNet架构。 与已有方法相比新在哪里:首次针对实时语音恢复场景设计了低延迟的因果FM模型。与之前依赖时间下采样的因果扩散模型相比,大幅降低了延迟。研究并量化了模型复杂度(从53M到6M参数)与采样步数(NFE)对实时恢复性能的影响。 主要实验结果如何:在DNS和SIG2024测试集上,因果NCSN++在NFE=5时达到最佳感知质量(DistillMOS),而非因果版本在NFE=10时最优。关键发现是:轻量模型(如ConvGLU-UNet-base)对长采样轨迹敏感,步骤增多性能反而下降。在相同架构下,FM训练的ConvGLU-UNet在BGMOS(噪声抑制)和WER(字错率)上弱于用对抗损失训练的GAN版本。具体图表结果见下文实验结果部分。 实际意义是什么:为将高效的生成模型(如FM)应用于实时语音处理提供了初步的架构设计和性能基准,明确了在低延迟约束下FM模型的优势与局限。 主要局限性:在严格的实时约束和相同模型复杂度下,FM并未展现出优于成熟对抗训练方法的性能。论文的训练超参数、优化器等关键复现信息缺失,结论的普适性有待验证。 🏗️ 模型架构 论文提出了两种主要用于实时语音恢复的因果FM架构,均在压缩复数STFT域工作。 整体输入输出流程: 输入:一段带退化的语音信号的压缩复数STFT谱图 y (维度 C x F x L,其中C为复数,F为频率,L为时间帧)。 输出:恢复后的干净语音信号的压缩复数STFT谱图 x1。 推理过程:从噪声 x0(通常来自简单分布)开始,通过积分流匹配ODE(dxt = vθ(xt, x0, t) dt),从 t=0 到 t=1,逐步生成 x1。 主要组件: ...

2026-04-29

Training Flow Matching Models with Reliable Labels via Self-Purification

📄 Training Flow Matching Models with Reliable Labels via Self-Purification #语音合成 #流匹配 #数据集 #鲁棒性 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #数据集 #鲁棒性 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Hyeongju Kim(Supertone, Inc.;通讯邮箱:login588@snu.ac.kr,机构可能与首尔大学相关) 通讯作者:Hyeongju Kim(Supertone, Inc.) 作者列表:Hyeongju Kim(Supertone, Inc.)、Yechan Yu(Supertone, Inc.)、June Young Yi(Supertone, Inc.)、Juheon Lee(Supertone, Inc.) 💡 毒舌点评 亮点在于其“自我净化”的哲学——让模型在训练中自己学会识别并“扔掉”错误的标签,这种无需外部模块的简洁设计在嘈杂数据时代颇具吸引力。短板是其核心机制(L_cond > L_uncond 作为过滤阈值)的普适性和鲁棒性边界尚未在更广泛的生成任务(如图像生成)上得到充分验证,显得有些“TTS-centric”。 📌 核心摘要 要解决什么问题:条件生成模型(如TTS)训练时,数据集中的错误标签(噪声标签)会严重损害模型性能,而人工清洗大规模数据集成本高昂。 方法核心是什么:提出自净化流匹配(SPFM)方法。其核心思想是,在训练过程中,对于一个数据样本(x, c),如果提供其标签c的条件流匹配损失L_cond高于不提供任何标签的无条件损失L_uncond,则认为标签c不可靠。对于这类样本,模型仅使用数据x进行无条件训练,从而过滤掉噪声标签的影响。 与已有方法相比新在哪里:现有方法大多需要预训练模型、额外的分类器或复杂的标签校正模块。SPFM则完全在训练过程中进行,利用模型自身的条件和无条件损失差异作为“检测器”,无需任何外部组件,实现简单且易于集成。 主要实验结果如何:在合成二维数据集(40%标签噪声)上,SPFM显著提升了生成样本对指定条件的忠实度(见图2)。在真实的TTS任务上,基于TITW数据集(包含噪声的真实语音数据),SPFM在SupertonicTTS基线上进一步提升了性能。具体地,在更嘈杂的TITW-Hard训练集上,加入SPFM后,语音质量指标UTMOS从3.50提升至3.55,DNSMOS从2.88提升至2.91,词错误率(WER)从7.60%显著降低至6.86%。论文声称建立了该数据集上的新基准。 实际意义是什么:提供了一种在模型训练阶段动态、自动地处理噪声标签的有效策略,能提升模型在真实嘈杂数据上的鲁棒性和最终性能,对于依赖大规模网络爬取或自动标注数据的生成式AI任务具有实用价值。 主要局限性是什么:论文自述,当前仅使用简单的固定阈值(L_cond - L_uncond > 0)和单一时间步(t’=0.5)进行判断,更复杂的自适应阈值或多时间步评估未被探索。此外,验证主要集中在语音合成领域,其在更广泛的条件生成任务中的泛化能力有待进一步研究。 🏗️ 模型架构 SPFM并非一个全新的模型架构,而是一种可以即插即用的训练策略,用于提升现有条件流匹配模型对噪声标签的鲁棒性。它被集成到标准的条件流匹配训练流程中。 ...

2026-04-29

Universr: Unified and Versatile Audio Super-Resolution Via Vocoder-Free Flow Matching

📄 Universr: Unified and Versatile Audio Super-Resolution Via Vocoder-Free Flow Matching #音频超分辨率 #流匹配 #语音增强 #音频生成 #模型评估 🔥 8.0/10 | 前25% | #音频超分辨率 | #流匹配 | #语音增强 #音频生成 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Woongjib Choi(延世大学电气与电子工程系) 通讯作者:未说明 作者列表:Woongjib Choi(延世大学电气与电子工程系)、Sangmin Lee(延世大学电气与电子工程系)、Hyungseob Lim(延世大学电气与电子工程系)、Hong-Goo Kang(延世大学电气与电子工程系) 💡 毒舌点评 这篇论文最大的亮点是提供了一个优雅且高效的“去vocoder”解决方案,用一个统一的流匹配模型直击频谱,避免了传统两阶段管线的性能天花板,在主观听感上甚至优于vocoded的GT。然而,其核心架构本质是成熟的ConvNeXt V2 U-Net在频域数据上的应用,创新更多体现在任务定义和流程整合上,而非模型架构本身,这使得它更像一个工程上的巧妙优化而非理论上的重大突破。 📌 核心摘要 要解决什么问题:传统的两阶段音频超分辨率方法需要先预测梅尔频谱,再依赖预训练的神经声码器合成波形,导致最终质量受限于声码器性能,且流程复杂。 方法核心是什么:论文提出 UniverSR,一个无 vocoder 的端到端框架。它将音频超分辨率视为频谱修复问题,使用流匹配生成模型直接估计低频谱条件下的复数谱系数(包含幅度和相位)的条件分布,然后通过逆短时傅里叶变换(iSTFT)直接恢复波形。 与已有方法相比新在哪里:a) 去 vocoder:直接建模复数谱,无需单独的波形合成阶段,简化了流程并突破了性能瓶颈;b) 使用流匹配:相比传统扩散模型,流匹配在较少采样步数(如4步)下即可生成高质量结果,效率更高;c) 统一架构:单一模型可处理语音、音乐、音效等多种音频类型及多种上采样倍率(×2 到 ×6)。 主要实验结果如何: 在统一模型评估中(Table 1),UniverSR 在音乐和音效领域全面超越 AudioSR 和 FlashSR,在语音领域也达到竞争水平,且参数量(57M)远小于基线(>600M)。 在纯语音数据集VCTK上的评估(Table 2)显示,在最具挑战性的8kHz→48kHz任务中,UniverSR 取得了最优的 LSD-HF(1.14)和2f-model(31.41)分数。 主观听感测试(图3)表明,在8kHz上采样任务中,UniverSR 的MOS分数最高,甚至高于“经vocoder处理的真实音频(GT (Vocoded))”。 定性分析(图4)显示,UniverSR 生成的频谱谐波结构更清晰,高频细节更丰富。 消融研究(Table 3)表明,引导尺度 ω 的选择在感知丰富度和客观保真度之间存在权衡。 实际意义是什么:该方法为高质量、高效的音频带宽扩展提供了一个更简洁、更统一的解决方案,可广泛应用于提升语音清晰度、修复历史录音、增强流媒体音频质量等场景。其“去 vocoder”范式可能启发其他音频生成任务。 主要局限性是什么:论文未明确讨论模型在极度低比特率或极端噪声条件下的鲁棒性;频谱修复方法依赖于STFT/iSTFT,可能引入相位相关的伪影(虽然实验显示听感良好);模型在最困难的语音任务(8kHz→48kHz)上,部分客观指标(如2f-model)略低于某些基线。 🏗️ 模型架构 整体流程:模型采用端到端设计。输入为低分辨率(LR)波形 s_lr,首先通过 sinc 插值上采样至目标高分辨率(HR)长度,然后进行STFT得到复数谱。从复数谱中提取包含所有可能高频区域的固定大小高频目标 X_h,以及对应于原始LR带宽的低频谱 X_l。训练时,向量场估计器(VFE)在流匹配目标下学习,以低频谱 X_l 为条件,从高斯噪声中逐步生成 X_h。推理时,从噪声开始,通过ODE求解器迭代生成 X_h,最后与 X_l 拼接成完整频谱,并通过iSTFT得到HR波形。 ...

2026-04-29

V2A-DPO: Omni-Preference Optimization for Video-To-Audio Generation

📄 V2A-DPO: Omni-Preference Optimization for Video-To-Audio Generation #音视频 #直接偏好优化 #流匹配 #模型评估 ✅ 7.5/10 | 前25% | #视频到音频生成 | #直接偏好优化 | #音视频 #流匹配 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nolan Chan(The Chinese University of Hong Kong, Hong Kong SAR, China) 通讯作者:Dingdong Wang(The Chinese University of Hong Kong, Hong Kong SAR, China)(论文脚注中对应邮箱 yjchen@se.cuhk.edu.hk) 作者列表:Nolan Chan(The Chinese University of Hong Kong, Hong Kong SAR, China),Timmy Gang(National Research Council Canada, Canada),Yongqian Wang(The University of Warwick, UK),Yuzhe Liang(Shanghai Jiao Tong University, China),Dingdong Wang(The Chinese University of Hong Kong, Hong Kong SAR, China) 💡 毒舌点评 这篇论文堪称“模范工程论文”:它没有声称发明了全新的生成范式,而是精准地识别了当前视频音频生成模型在“对齐人类审美与同步偏好”上的短板,并系统性地设计了一套包含自动评估、数据生成、课程训练的完整解决方案,实验结果也验证了其有效性。不过,其核心创新更偏向于应用层面的“术”而非基础理论层面的“道”,AudioScore本身是现有工具的集成而非原理创新,课程学习DPO的引入也较为直接。 ...

2026-04-29

VoxMorph: Scalable Zero-Shot Voice Identity Morphing via Disentangled Embeddings

📄 VoxMorph: Scalable Zero-Shot Voice Identity Morphing via Disentangled Embeddings #语音克隆 #零样本 #语音合成 #流匹配 #音频安全 🔥 9.0/10 | 前10% | #语音克隆 | #流匹配 | #零样本 #语音合成 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Bharath Krishnamurthy (北德克萨斯大学) 通讯作者:Ajita Rattani (北德克萨斯大学) 作者列表:Bharath Krishnamurthy (北德克萨斯大学), Ajita Rattani (北德克萨斯大学) 💡 毒舌点评 这篇论文堪称生物识别安全领域的一声警钟,它用优雅的技术(解纠缠表示学习)和极低的成本(5秒音频),制造出了一个足以让现有语音验证系统头疼不已的“合成身份”。其亮点在于将看似复杂的攻击变得异常简单高效;短板则是,这种“降维打击”式的技术突破,也立刻暴露了当前ASV系统在应对此类高级、细粒度伪造时的脆弱性,给防御方带来了前所未有的压力。 📌 核心摘要 解决的问题:现有的语音身份变形(VIM)攻击方法存在严重缺陷:计算成本高、不可扩展(需要为每对说话人微调)、依赖声学相似的说话人对,且生成语音质量低。这些限制了其作为实际威胁的可行性。 方法核心:提出VoxMorph,一个零样本框架。其核心是将声音解纠缠为韵律嵌入(说话风格)和音色嵌入(核心身份)。对两个说话人的这两种嵌入分别使用球面线性插值进行混合,然后将融合的嵌入输入一个三阶段合成管线:自回归语言模型生成声学令牌(由融合韵律引导),条件流匹配网络生成梅尔频谱图(由融合音色引导),最后神经声码器生成波形。 与已有方法相比新在哪里:a) 零样本与可扩展性:仅需5秒音频,无需微调即可生成变形语音。b) 解纠缠表示:将风格与身份分离,可独立精细控制,避免了传统单一嵌入混合产生的声学伪影。c) 先进合成架构:利用自回归模型和流匹配模型的强大生成能力,确保了高保真度。d) 首个大规模数据集:发布包含10,000个样本的数据集用于防御研究。 主要实验结果:在严格安全阈值(0.01% FAR)下,VoxMorph-v2实现了67.8%的完全匹配变形成功率(FMMPMR),比之前最优方法(ViM的2.61%)高出数十倍。音频质量(FAD)比基线提升2.6倍,可理解性错误(WER)降低73%。详细对比见下表: 方法 FAD↓ (vs Real) WER↓ KLD↓ MMPMR (%) @ 0.01% FMMPMR (%) @ 0.01% MorphFader [16] 8.96 1.84 0.4332 0.0 0.0 Vevo [3] 9.14 0.54 0.1899 82.40 9.00 ViM [14] 7.52 1.06 0.3501 2.61 0.00 VoxMorph-v1 5.03 0.33 0.1404 78.60 60.60 VoxMorph-v2 4.90 0.19 0.1385 99.80 67.80 实际意义:证明了语音变形攻击已从理论走向实用,对自动说话人验证(ASV)系统构成切实、可扩展的安全威胁。同时,通过开源代码、模型和大规模数据集,为社区研究和开发下一代变形攻击检测(MAD)对策提供了关键工具和基准。 主要局限性:a) 攻击属性:该技术本身是一种攻击手段,存在滥用风险。b) 评估局限:评估主要在LibriSpeech数据集上进行,且攻击的是特定ASV系统(Resemblyzer),对真实世界、多场景、多模态ASV系统的威胁程度有待进一步验证。c) 多说话人变形:当前方法聚焦于两两变形,未来可扩展至更多说话人融合。 🏗️ 模型架构 VoxMorph是一个端到端的零样本语音身份变形框架,其整体架构如图1所示,包含提取、插值、合成三个核心阶段。 ...

2026-04-29

MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control

📄 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control #语音合成 #流匹配 #零样本 #可控合成 #流式处理 ✅ 7.0/10 | 前25% | #语音合成 | #流匹配 | #零样本 #可控合成 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Jialong Mai(华南理工大学)、Xiaofen Xing(华南理工大学,通讯作者)、Xiangmin Xu(华南理工大学) 💡 毒舌点评 这篇论文精准地瞄准了现代TTS系统中一个被忽视但实际应用中很关键的痛点——缺乏token级别的精细时长和停顿控制,并为此设计了一套从数据准备到训练机制的系统性解决方案,实验也做得很扎实。其短板也很明显:为了获得这种控制能力,模型在无控制的“自发合成”模式下,语音识别错误率(WER/CER)有明显上升,这表明精细控制与生成自然度之间存在一个不容忽视的权衡,而且目前没有任何开源迹象。 📌 核心摘要 解决的问题:现有的文本到语音(TTS)系统通常只能提供句子级的语速或时长控制,缺乏对每个token(音素或字符)内容发音时长和停顿时长的显式、精细控制能力,这限制了需要精确节奏控制的应用场景。 方法核心:提出了MAGIC-TTS,一种基于流匹配(Flow Matching)的零样本TTS模型。其核心是在文本表示中显式注入每个token的内容时长(d_i)和停顿时长(p_i)作为条件。通过精心设计的两阶段训练(大规模时长条件预训练+高置信度时长监督微调)、零值校正(使零时长输入不产生残差)和缺失控制鲁棒性训练(随机丢弃时长条件),使模型既能可靠地遵循时长指令,又能在无时长指令时保持自然合成。 与已有方法相比新在哪里:与现有提供全局语速或风格控制的系统不同,MAGIC-TTS是首个提供显式、token级内容时长和停顿控制的TTS模型。与一些将时长作为内部中间变量的系统不同,它将时长设计为外部可直接操控的高置信度条件,而非需要隐式推断的潜在变量。 主要实验结果: 在时长控制准确性上,提供显式时长条件后,内容时长MAE从36.88ms降至10.56ms,相关性从0.588提升至0.918;停顿MAE从18.92ms降至8.32ms(详见表1)。 在局部编辑基准测试中,模型能根据指令调整局部时长,例如将目标内容时长从170ms编辑为225ms后,实现均值为207.40ms(绝对偏差17.60ms)(详见表2)。 消融实验表明,零值校正和高置信度时长监督对提升内容时长控制精度至关重要(详见表3)。 关键权衡:在无控制模式下,与同等规模持续预训练的基线相比,最终模型的英文WER从1.994升至3.434,中文CER从1.772升至2.215(详见表7)。 实际意义:为需要精确节奏控制的语音生成场景(如导航提示、引导式朗读、无障碍辅助阅读代码/验证码)提供了解决方案,能够实现可复现的均匀节奏基线,并支持局部编辑。 主要局限性:获得精细控制能力的代价是无控制模式下的合成质量(清晰度)有所下降;评估依赖于MFA强制对齐,存在测量误差;论文未提及代码和模型的开源。 🏗️ 模型架构 MAGIC-TTS建立在非自回归的零样本TTS骨干网络(F5-TTS)之上,该骨干基于条件流匹配(Conditional Flow Matching)生成梅尔频谱图。 ...

2026-04-28

Speech Enhancement Based on Drifting Models

📄 Speech Enhancement Based on Drifting Models #语音增强 #流匹配 #自监督学习 #单步生成 #无监督训练 ✅ 7.5/10 | 前25% | #语音增强 | #流匹配 | #自监督学习 #单步生成 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明(根据作者列表顺序,Liang Xu排首位,但论文未明确标注“第一作者”) 通讯作者:未说明(论文未明确标注“通讯作者”) 作者列表:Liang Xu(维多利亚大学惠灵顿分校)、Diego Caviedes-Nozal(GN Audio A/S)、Bastiaan Kleijn(维多利亚大学惠灵顿分校)、Longfei Felix Yan(维多利亚大学惠灵顿分校)、Rasmus Kongsgaard Olsson(GN Audio A/S) 💡 毒舌点评 亮点在于概念创新,将生成式建模重新表述为“漂移-平衡”问题,优雅地实现了无需迭代的一步增强,并证明了其在无配对数据训练上的潜力。短板是论文中部分实验细节(如无监督训练的完整设置)不够透明,且在PESQ等保真度指标上虽具竞争力,但并未全面超越顶尖的单步蒸馏方法,其“SOTA”主张需结合具体指标看待。 📌 核心摘要 问题:现有基于扩散模型的语音增强方法虽然效果好,但推理过程需要多步迭代(10-100步),导致计算延迟高,难以满足实时应用需求。 方法核心:提出DriftSE框架,将语音增强重构为一个分布平衡问题。其核心是学习一个“漂移场”,该场由指向干净语音分布的吸引力和远离当前生成分布的排斥力组成,驱动映射函数的输出分布直接演化至目标分布,从而实现单步推理。 新意:与基于轨迹(如扩散、流匹配)的迭代方法不同,DriftSE通过分布演化求解均衡,原生支持一步生成。论文设计了两种增强范式:直接映射(含噪语音到干净语音)和条件生成(从噪声先验生成)。漂移计算在预训练SSL模型的潜空间多层特征上进行,以捕捉多层级语音结构。 主要实验结果: 在VoiceBank-DEMAND基准测试上,直接映射变体(DistilHuBERT, σ=0)达到PESQ 3.15, SI-SDR 16.1 dB,优于30步的SGMSE+(PESQ 2.90)和单步MeanFlowSE(PESQ 2.81)。条件生成变体(DriftSE*)在无参考指标上表现优异,达到SCOREQ 4.33,DNSMOS 3.64。在DNS Challenge 2020真实录音测试中,DriftSE(DistilHuBERT)取得了领先的WV-MOS 2.65和SCOREQ 2.97。 关键数据对比表(VB-DMD测试集): ...

2026-04-28

Talker-T2AV: Joint Talking Audio-Video Generation with Autoregressive Diffusion Modeling

📄 Talker-T2AV: Joint Talking Audio-Video Generation with Autoregressive Diffusion Modeling #语音合成 #音视频 #自回归模型 #扩散模型 #流匹配 ✅ 7.5/10 | 前25% | #语音合成 | #自回归模型 | #音视频 #扩散模型 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhen Ye(根据作者列表顺序推断,论文中未明确标注“第一作者”) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Zhen Ye, Xu Tan, Aoxiong Yin, Hongzhan Lin, Guangyan Zhang, Peiwen Sun, Yiming Li, Chi-Min Chan, Wei Ye, Shikun Zhang, Wei Xue(所有作者所属机构均未在论文正文中明确说明,仅提供了个人姓名。机构信息可能在论文PDF的其他部分或补充材料中,但未在所提供的全文文本中提及。) 💡 毒舌点评 亮点: 论文提出的“解耦”设计哲学很聪明——把高层次的跨模态语义对齐(自回归骨干网络负责)和低层次的信号渲染(独立的扩散头负责)分开,不仅逻辑清晰,而且实验证明在同步性和质量上都优于全流程纠缠的Dual-DiT方案,同时用一个模型统一了三种任务。短板: 视频生成质量的天花板明显受限于所选的LIA-X运动自编码器,论文也坦承了这一点;此外,自回归模型在长序列上误差累积的问题可能导致生成超长语音时质量下降,这在实际应用中是个潜在痛点。 📌 核心摘要 要解决什么问题: 现有联合音视频生成模型(如Dual-DiT)在整个去噪过程中通过密集的跨模态注意力耦合音频和视频,将高层语义和底层信号细节混为一体,导致建模效率低下。同时,这些模型通常输出固定长度,无法适应文本长度和说话节奏的变化。 方法核心是什么: 提出Talker-T2AV,一个两阶段的自回归扩散框架。第一阶段(跨模态建模):将音频和视频编码为时间对齐的潜在序列(25Hz),通过元素级求和融合后,输入到一个共享的自回归语言模型骨干网络中,以补丁级进行自回归生成,捕捉高层跨模态时序结构。第二阶段(模态特定渲染):使用两个独立的轻量级扩散Transformer头,分别将共享的隐状态解码为音频和视频的潜在补丁。 与已有方法相比新在哪里: ① 架构解耦: 首次将联合生成解耦为“高层语义对齐”与“底层信号渲染”两个明确阶段,避免了不必要的全过程跨模态纠缠。② 灵活性: 通过元素级求和设计,一个模型无需修改即可支持文本到音视频、音频到视频(说话头生成)、视频到音频(配音)三种任务。③ 可变长度输出: 基于自回归范式和停止预测器,支持生成任意长度的输出。 主要实验结果如何: 联合生成 (T2AV): 在中英文测试集上,与5个Dual-DiT基线(MoVA, Ovi, LTX-2, UniVerse-1, UniAVGen)相比,本文方法在语音可懂度(CER/WER最低)、视频保真度(FVD最佳)和唇音同步(SyncNet C最高, D最低)上均取得最佳或并列最佳结果。 音频驱动 (A2V): 在中英文测试集上,与5个专用方法(FLOAT, EchoMimic, Sonic, Ditto, AniPortrait)相比,本文方法在视频质量和同步性上综合表现最优(例如,英文Sync-C为5.85,最高)。 视频配音 (V2A): 在Chem数据集上,与5个专用配音系统相比,本文方法在情感相似度(EMO-SIM)、语音可懂度(WER)和自然度(UTMOS)三项指标上均达到最佳,时长对齐(DD)接近最佳。 消融实验: 验证了“元素级求和”融合方式在同步性和效率上优于“交错”或“延迟”排列。 (详细结果表格见“详细分析”部分) 实际意义是什么: 该工作推动了更自然、同步且灵活的虚拟人交互技术的发展。统一的框架降低了构建和部署多模态生成系统的复杂度,为实时对话、虚拟主播、多模态翻译等应用提供了新的技术路径。 主要局限性是什么: ① 自回归骨干在连续潜在空间上的预测误差会随序列增长而累积,影响长音频生成质量。② 视频的最终保真度受限于所采用的LIA-X运动自编码器的表达能力。③ 论文未提及训练所使用的具体硬件和时长,硬件消耗未知。 🏗️ 模型架构 论文整体架构如图1所示,采用“自回归扩散”的两阶段解耦设计。 ...

2026-04-28