Adaptive Deterministic Flow Matching for Target Speaker Extraction

📄 Adaptive Deterministic Flow Matching for Target Speaker Extraction #目标说话人提取 #流匹配 #语音增强 #生成模型 #自适应推理 🔥 8.0/10 | 前25% | #目标说话人提取 | #流匹配 | #语音增强 #生成模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Tsun-An Hsieh(伊利诺伊大学厄巴纳-香槟分校,西贝尔计算机与数据科学学院) 通讯作者:Minje Kim(伊利诺伊大学厄巴纳-香槟分校,西贝尔计算机与数据科学学院) 作者列表:Tsun-An Hsieh(伊利诺伊大学厄巴纳-香槟分校,西贝尔计算机与数据科学学院)、Minje Kim(伊利诺伊大学厄巴纳-香槟分校,西贝尔计算机与数据科学学院) 💡 毒舌点评 亮点:将流匹配的“时间”轴与语音混合的物理过程(混合比例τ)直接对齐,并在此基础上实现“按需分配”计算资源的自适应推理,这种思路比简单地追求固定步数的流匹配要精巧得多,实验中仅一步就能追平甚至超越需要多步的强基线,效率提升令人印象深刻。 短板:方法高度依赖于混合信号的线性叠加模型(x=τs₁+(1-τ)b),对混响、非线性失真等更复杂的声学场景(论文中也提到需要更多步)的鲁棒性未充分验证,这限制了其作为通用TSE解决方案的广度。此外,MR预测模块的精度直接影响最终性能,但在实际未知场景中预测一个干净的τ本身就颇具挑战。 📌 核心摘要 问题:现有基于扩散或流匹配的生成式目标说话人提取方法,通常采用固定数量的反向步骤和固定步长进行推理,这未能根据输入混合信号的质量(即目标语音与背景的混合比例)自适应地分配计算资源,导致效率低下。 方法:提出AD-FlowTSE,一种自适应确定性流匹配TSE方法。其核心是将流匹配中的时间变量重新定义为背景信号b与目标语音s₁之间的混合比例τ。模型学习的是从背景分布到目标语音分布的传输向量场。在推理时,首先通过一个MR预测器估计输入的混合比例τ̂,然后将该估计值作为起点,仅在[τ̂, 1]的残差区间上进行自适应步长的反向积分,从而生成目标语音。 与已有方法的新颖之处:区别于先前方法在混合信号(或高斯噪声)与干净语音之间定义流动路径,本文在背景与目标之间定义流动路径,并将路径位置与物理混合比例直接绑定。这使得模型能够根据输入质量动态调整推理步数或步长,实现了“MR感知”的初始化和高效推理。 主要实验结果:在Libri2Mix数据集(Noisy和Clean子集)上,AD-FlowTSE在PESQ、ESTOI、SI-SDR等侵入式指标上优于所有对比的生成式基线。尤其显著的是,说话人相似度(SIM)指标在Noisy集上达到0.87(使用估计τ),远高于FlowTSE的0.83和SoloSpeech的0.85。消融实验表明,使用估计的τ̂性能接近使用真实τ的上界,而固定τ=1或τ=0则性能显著下降。图2显示,仅需1-5个推理步数(NFE)即可达到峰值性能,更多步数反而因过校正导致性能下降。 实际意义:该方法为高效、高质量的TSE提供了一条新途径,尤其适用于对延迟和计算资源敏感的应用场景(如助听器、实时通信)。它展示了将生成模型的理论框架与任务的物理先验深度结合的重要性。 主要局限性:该方法的有效性建立在语音混合是线性叠加的假设上,对存在混响、滤波等非线性效应的场景可能需要更复杂的建模。MR预测器的精度是系统性能的瓶颈,其在极端噪声或未见说话人场景下的鲁棒性有待检验。实验仅在Libri2Mix这一特定数据集上进行,缺乏在真实世界复杂场景中的验证。 🏗️ 模型架构 AD-FlowTSE由两个独立训练的模块组成:MR-Informed向量场估计器 (vθ) 和 MR预测器 (gϕ)。整体流程如图1所示。 ...

2026-04-29

AnyAccomp: Generalizable Accompaniment Generation Via Quantized Melodic Bottleneck

📄 AnyAccomp: Generalizable Accompaniment Generation Via Quantized Melodic Bottleneck #音乐生成 #流匹配 #量化 #歌唱语音合成 #鲁棒性 🔥 8.0/10 | 前25% | #音乐生成 | #流匹配 #量化 | #流匹配 #量化 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junan Zhang(香港中文大学深圳分校),Yunjia Zhang(香港中文大学深圳分校),两人贡献相等(Equal Contribution)。 通讯作者:Zhizheng Wu(香港中文大学深圳分校;澳门城市大学;深圳湾区实验室;Amphion Technology Co., Ltd.) 作者列表: Junan Zhang(香港中文大学深圳分校) Yunjia Zhang(香港中文大学深圳分校) Xueyao Zhang(香港中文大学深圳分校) Zhizheng Wu(香港中文大学深圳分校;澳门城市大学;深圳湾区实验室;Amphion Technology Co., Ltd.) 💡 毒舌点评 亮点:该工作精准地抓住了歌唱伴奏生成模型“过拟合于分离伪影”这一关键痛点,并设计了“量化音高瓶颈”这一优雅的解决方案,通过剥离音色和瑕疵信息,显著提升了模型在干净人声和纯乐器上的泛化能力,思路清晰且效果立竿见影。短板:目前的评估主要依赖于AI美学评分(audiobox-aesthetics)和FAD等指标,虽然全面,但对于“伴奏质量”和“音乐性”的衡量,可能仍需更贴近人类感知的细粒度评测;此外,瓶颈表示选择固定的音高特征图,对于非主调音乐或复杂编曲的泛化能力尚待验证。 📌 核心摘要 问题:现有的歌唱伴奏生成(SAG)模型在训练时使用了带有分离伪影的歌声,导致模型过拟合这些伪影,当输入为干净、真实的歌声时性能严重下降,存在严重的“训练-测试不匹配”问题。 方法核心:提出ANYACCOMP框架,分为两阶段。第一阶段使用VQ-VAE将输入的音高特征图(Chromagram)量化为离散的、音色不变的旋律码本表示。第二阶段使用基于Flow Matching的Transformer,以这些离散码本为条件,生成伴奏的梅尔频谱,最后用声码器合成音频。 创新点:与已有方法直接使用梅尔频谱或SSL特征不同,ANYACCOMP通过量化的音高瓶颈,主动解耦了旋律内容与源相关的音色及分离伪影,从而提供了鲁棒的生成条件。 实验结果:在领域内数据集(YuE,分离歌声)上,ANYACCOMP表现与基线(FastSAG, FM-Mel)持平或略优(见Table 1)。在关键的泛化测试集上(MUSDB18干净歌声、MoisesDB乐器独奏),基线方法的APA(条件一致性)得分接近0,表明生成失败;而ANYACCOMP的APA分别达到0.710和0.203,且FAD和美学分数也远优于基线,证明了其强大的泛化能力。 实际意义:该工作使得伴奏生成模型能够泛化到干净录音甚至纯乐器输入,首次实现了为纯乐器音轨自动生成伴奏,拓宽了AI音乐协作工具的应用范围。 主要局限:瓶颈表示完全基于音高特征,可能对打击乐或非调性音乐效果有限;部分评估指标(如PC, 内容复杂度)的解读需注意;未公开训练数据集本身。 🏗️ 模型架构 ANYACCOMP是一个两阶段的条件生成框架,整体架构如图1所示。 ...

2026-04-29

ARCHI-TTS: A Flow-Matching-Based Text-to-Speech Model with Self-Supervised Semantic Aligner and Accelerated Inference

📄 ARCHI-TTS: A Flow-Matching-Based Text-to-Speech Model with Self-Supervised Semantic Aligner and Accelerated Inference #语音合成 #流匹配 #自监督学习 #零样本 #多语言 🔥 8.0/10 | 前25% | #语音合成 | #流匹配 | #自监督学习 #零样本 学术质量 6.2/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Chunyat Wu(香港中文大学) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Chunyat Wu, Jiajun Deng, Zhengxi Liu, Zheqi Dai, Haolin He, Qiuqiang Kong(所有作者均来自香港中文大学,香港,中国) 💡 毒舌点评 亮点:这篇论文最大的“工程巧思”在于发现了非自回归流式解码器中,条件编码器的输出在不同去噪步之间可以安全地重复使用,从而在几乎不损失质量的前提下将推理速度提升了数倍(RTF从0.31降至0.09),这个发现极具实用价值。短板:虽然“语义对齐器”被设计为核心,但论文对其内部学习到的对齐质量缺乏直接、可视化的分析(例如对齐矩阵图),其对合成语音“时序稳定性”的贡献更多是间接推断,说服力可以更强。 📌 核心摘要 问题:当前基于扩散/流匹配的非自回归TTS系统面临两大挑战:1)文本与语音之间复杂、灵活的对齐关系难以有效建模;2)迭代去噪过程带来高昂的计算开销,推理速度慢。 方法:本文提出ARCHI-TTS,一种非自回归架构。核心方法包括:a) 语义对齐器:通过一个Transformer编码器,将文本特征与长度等于目标语音帧数的、可学习的“掩码嵌入”序列进行交互,从而端到端地学习出对齐的语义表征,无需显式时长标注。b) 高效推理策略:在条件流匹配的解码器中,将负责编码文本、说话人、参考音频等条件的“条件编码器”部分的输出,在多个去噪步骤间共享(重用),避免了每一步都重新计算,从而大幅提升推理效率。 创新:与E2-TTS、F5-TTS等通过填充字符来实现隐式对齐的方法不同,ARCHI-TTS显式设计了一个对齐模块。与需要额外蒸馏训练(如DMDSpeech)的加速方法不同,本文的加速策略是训练无关的,直接来自对模型架构特性的洞察。 主要实验结果: 在LibriSpeech-PC test-clean上,WER为1.98%,SSIM为0.70,RTF为0.21(单卡3090)。 在SeedTTS test-en上,WER为1.47%,SSIM为0.68。 在SeedTTS test-zh上,WER为1.42%,SSIM为0.70。 使用75%共享比例时,在NFE=32下,WER仍保持1.98%,RTF降至0.09。 MOS主观评测中,其自然度和说话人相似度与F5-TTS和CosyVoice2处于竞争水平。 模型 参数量 训练数据 WER(%)↓ SSIM↑ RTF↓ 测试集 F5-TTS 336M 100K Multi. 2.42 0.66 0.31 LibriSpeech-PC test-clean ARCHI-TTS 289M 100K Multi. 1.98 0.70 0.21 LibriSpeech-PC test-clean F5-TTS - - 1.83 0.67 - SeedTTS test-en ARCHI-TTS - - 1.47 0.68 - SeedTTS test-en DiTAR - - 1.02 0.75 - SeedTTS test-zh ARCHI-TTS - - 1.42 0.70 - SeedTTS test-zh (图1:ARCHI-TTS整体架构概览图,展示了语义对齐器、条件编码器、速度解码器及数据流。) ...

2026-04-29

Asynchrony-Aware Decoupled Multimodal Control for Cued Speech Video Generation

📄 Asynchrony-Aware Decoupled Multimodal Control for Cued Speech Video Generation #语音合成 #扩散模型 #流匹配 #音视频 #低资源 ✅ 7.5/10 | 前10% | #语音合成 | #扩散模型 | #流匹配 #音视频 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Fengji Ma(香港科技大学(广州)) 通讯作者:Li Liu(香港科技大学(广州),邮箱:avrillliu@hkust-gz.edu.cn) 作者列表:Fengji Ma(香港科技大学(广州))、Xiao-Ping Zhang(清华伯克利深圳学院)、Li Liu(香港科技大学(广州)) 💡 毒舌点评 这篇论文的亮点在于将“手语视频生成”这个具体任务分解得非常清晰,并针对其中“控制纠缠”、“动作异步”和“长视频漂移”三个痛点分别设计了技术方案(DCL、SAMP、MS-CWD),体现了扎实的工程思维和问题导向。然而,其短板也显而易见:作为一篇强调生成质量的工作,却未提供任何开源代码或预训练模型,甚至训练数据集的公开性也未明确,这极大削弱了其作为学术贡献的可验证性和后续研究价值;此外,长视频一致性的验证仅在500帧左右,对于实际应用可能需要更长序列的表现未做探讨。 📌 核心摘要 要解决的问题:论文旨在解决从语音和姿态信号生成手语视频(Cued Speech Video)时面临的三个关键挑战:(1) 语音与姿态模态间的控制纠缠,导致嘴唇和手部细节模糊;(2) 手语系统固有的手部动作与语音的自然异步性,严格对齐会导致动作不自然;(3) 长视频生成中缺乏长期时序一致性。 方法核心:提出一个名为“解耦课程学习”(Decoupled Curriculum Learning, DCL)的三阶段训练框架。该框架先分别训练语音分支(控制嘴唇)和姿态分支(控制上半身和手势),再进行联合微调。同时,引入了区域感知重建损失(RAR)以增强局部细节,设计了语音异步调制(SAMP)机制来建模手势与语音的自然时间偏移,并提出了多尺度上下文窗口去噪(MS-CWD)推理策略以保证长视频的时序连贯性。 与已有方法的创新点:与以往通用的人像动画或说话人头部生成方法不同,本文是首个针对“手语视频生成”这一特定任务进行系统性建模的工作。其创新点包括:(1) 明确的解耦训练策略(DCL)以避免模态干扰;(2) 区域感知的精细化损失(RAR)聚焦于嘴唇和手部这两个关键区域;(3) 首次在生成任务中显式建模语音与手势的异步关系(SAMP);(4) 专为长视频设计的多尺度、加权融合的推理算法(MS-CWD)。 主要实验结果:在自建的普通话手语(MCCS)数据集上,本文方法在所有评估指标上均优于StableAnimator (SA) 和 UniAnimate-DiT (UAD) 两个SOTA方法。具体数值见表1。消融实验证明,移除任何一个提出模块(DCL, RAR, SAMP, MS-CWD)都会导致性能下降,其中移除DCL影响最大。图4显示,在500帧长视频中,本文方法的手部关键点置信度(HKC)和语音-嘴唇同步置信度(Sync-C)的衰减率仅为约3%,远低于基线方法(约7%-22%)。 实际意义:该技术有望为听障人群生成易于理解的、手语辅助的教学或交流视频,打破沟通壁垒。其提出的技术(如异步建模、长视频生成)也可能迁移至其他需要多模态协调控制的视频生成任务中。 主要局限性:论文未提供代码和模型,复现困难;实验仅在普通话手语数据集上进行,未验证其他语言手语的通用性;未分析模型的计算开销和训练成本;长视频测试的最长长度为500帧,对于更长的序列(如分钟级)的稳定性有待进一步验证。 🏗️ 模型架构 论文的整体架构基于一个扩散Transformer(DiT)骨干网络,并遵循Rectified Flow(RF)目标进行训练。其核心设计是“解耦课程学习”(DCL),分为三个阶段(如图2所示): ...

2026-04-29

Beyond Global Emotion: Fine-Grained Emotional Speech Synthesis with Dynamic Word-Level Modulation

📄 Beyond Global Emotion: Fine-Grained Emotional Speech Synthesis with Dynamic Word-Level Modulation #语音合成 #情感语音合成 #特征调制 #流匹配 #多任务学习 #数据集 ✅ 7.5/10 | 前25% | #语音合成 | #特征调制 | #情感语音合成 #流匹配 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Sirui Wang(哈尔滨工业大学) 通讯作者:Tiejun Zhao*(哈尔滨工业大学) 作者列表:Sirui Wang(哈尔滨工业大学)、Andong Chen(哈尔滨工业大学)、Tiejun Zhao(哈尔滨工业大学) 💡 毒舌点评 亮点:论文首次在LLM-TTS框架中实现了单词级的情感动态控制,概念清晰,并通过构建专用的FEDD数据集和详实的消融实验,有力地证明了其方法的有效性,实验设计相当规范。短板:然而,整个框架严重依赖于一个未完全公开细节的预训练模型(CosyVoice2),且代码和模型均未开源,这使得其“可复现性”大打折扣,更像是在现有强大基座上添加了一个精巧的模块,而非一个能独立复现和推广的完整解决方案。 📌 核心摘要 本文针对现有情感语音合成(E-TTS)方法大多依赖句子级全局情感控制(如标签、参考音频或提示)无法捕捉句内情感动态变化的问题,提出了Emo-FiLM框架。该方法的核心是:1)利用预训练的emotion2vec模型提取帧级情感特征,并通过一个轻量级Transformer模型将其对齐到单词,生成单词级的情感类别和强度标注;2)在预训练的LLM-TTS(CosyVoice2)框架中引入一个情感特征线性调制(E-FiLM)模块,将单词级的情感信息映射为文本嵌入的缩放和偏移参数,从而实现对语音生成过程的细粒度调制。为评估动态情感合成能力,论文构建了首个包含情感转折标注的Fine-grained Emotion Dynamics Dataset (FEDD)。实验表明,在FEDD数据集上,Emo-FiLM在情感动态匹配(DTW)指标上比最强基线(CosyVoice2)提升了9.1%(从54.57降至49.62),在主观情感相似度(EMOS)和自然度(NMOS)上也取得最佳成绩(4.19和4.23)。消融实验证实,单词级数据监督、情感损失和FiLM调制层均为关键组件。该工作为生成更自然、更具表现力的合成语音提供了新的方向,其主要局限在于依赖特定预训练模型且未开源代码,限制了复现与推广。 🏗️ 模型架构 Emo-FiLM框架整体分为两个核心阶段(如图2所示): 细粒度情感标注模块: 输入:语音波形及其对应的转录文本。 核心组件: Emotion2Vec特征提取器:一个预训练的自监督模型,用于从语音中提取高维的帧级情感特征序列。 Montreal Forced Aligner (MFA):用于获取文本单词与语音帧的精确对齐。 轻量级Transformer模型:接收对齐后的帧级特征序列,通过多头自注意力机制建模上下文依赖,输出增强的帧级表示。 掩码平均池化层:将每个单词对应的可变长度帧级特征序列聚合为一个固定维度的单词级情感向量。 双输出头:一个分类头预测离散情感类别(如快乐、悲伤),一个回归头预测连续情感强度(归一化到[0,1])。 输出:每个单词对应的动态情感注释(类别和强度)。 关键设计:此模块将传统句子级标签“提升”到单词级,为生成模块提供了精细的控制信号。 情感调制生成模块: ...

2026-04-29

CosyAccent: Duration-Controllable Accent Normalization using Source-Synthesis Training Data

📄 CosyAccent: Duration-Controllable Accent Normalization using Source-Synthesis Training Data #语音转换 #流匹配 #语音合成 #数据增强 #非自回归 ✅ 7.8/10 | 前25% | #语音转换 | #流匹配 | #语音合成 #数据增强 学术质量 7.8/7 | 选题价值 7.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Qibing Bai(香港中文大学(深圳)数据科学学院、腾讯天籁音频实验室) 通讯作者:Shuai Wang(南京大学智能科学与技术学院,标注†) 作者列表:Qibing Bai(香港中文大学(深圳)数据科学学院、腾讯天籁音频实验室)、Shuhao Shi(香港中文大学(深圳)数据科学学院)、Shuai Wang(南京大学智能科学与技术学院)、Yukai Ju(腾讯天籁音频实验室)、Yannan Wang(腾讯天籁音频实验室)、Haizhou Li(香港中文大学(深圳)数据科学学院、深圳市大数据研究院、香港中文大学(深圳)高等金融研究院) 💡 毒舌点评 亮点在于“源合成”数据策略的构思巧妙——通过合成非母语语音来使用纯净母语语音作为目标,从根本上规避了TTS伪影污染,这一思路颇具启发性。短板则是其宣称的“无需真实L2数据”在泛化到真实、多样且含噪声的L2语音时可能面临挑战,且模型在说话人相似度上略逊于基线。 📌 核心摘要 这篇论文针对口音归一化(AN)中训练数据稀缺和时长建模生硬两大挑战,提出了一种新的解决方案。核心方法包括:1)提出“源合成”训练数据构建策略,使用强大的提示式TTS(CosyVoice2)从大规模母语语料中合成非母语语音,从而在完全不使用真实L2数据的情况下,构建以高质量母语语音为目标的平行训练对。2)提出了CosyAccent模型,一个基于流匹配的非自回归(NAR)系统,它通过隐式韵律建模保证自然度,并引入“位置缩放”技术实现对输出总时长的显式控制。实验结果显示,尽管未使用真实L2数据训练,CosyAccent在内容保持(WER降至12.96% vs. 基线16.21%)和自然度(主观NAT评分64.62)上显著优于使用真实数据的基线模型。该工作证明了合成数据策略的有效性,为减少对稀缺口音数据的依赖提供了新途径。其主要局限性在于合成数据可能缺乏真实L2语音的声学复杂性和副语言特征。 🏗️ 模型架构 CosyAccent是一个非自回归的口音归一化模型,整体架构包含四个核心模块:语音编码器、CTC投影头、时长预测器和语音解码器。 语音编码器与内容表征:输入的L2源语音首先通过一个冻结的Whisper-medium编码器前端提取特征,然后送入一个Transformer语音编码器,提取高层特征。为了确保这些特征能稳健地表示语言内容,编码器输出后接一个线性投影头,并施加CTC损失进行辅助监督。 语音解码器:采用基于DiT(Diffusion Transformer)的解码器,通过流匹配(Flow Matching)训练,生成梅尔频谱的速度场。每个解码器层包含自注意力、交叉注意力和前馈网络(FFN),每个模块后都接有自适应层归一化(AdaLN),其参数由时间嵌入调制。编码器输出的内容表征通过交叉注意力作为内容条件注入解码器。 时长控制机制:这是模型的关键创新。它结合了隐式和显式的时长控制: 隐式韵律建模:解码器本身不严格对齐源和目标的逐帧位置,允许生成更自然的节奏。 显式总时长控制(位置缩放):在交叉注意力中,使用旋转位置编码(RoPE)。与传统绝对索引不同,论文将源内容特征的位置索引进行归一化缩放,使其终点与目标梅尔频谱长度的终点对齐。这种“位置缩放”技术在源和目标之间建立了粗对齐,确保模型在目标长度被手动指定时(如配音场景需保持时长),仍能正确映射语音的开头、中间和结尾。 总时长预测器:为了灵活性,模型引入一个总时长预测器,用于预测一个缩放比例(目标长度/源长度)。该预测器由DiT骨干网络、注意力池化层构成,并通过流匹配训练。在推理时,可以选择使用预测的比例来确定输出长度,或直接继承源语音的时长。 说话人条件:由于冻结的Whisper编码器可能抑制了源语音的音色信息,模型显式地使用预训练说话人编码器(Resemblyzer)提取说话人嵌入向量作为条件,以确保高保真的音色模仿。解码器的输出受三个输入条件化:带噪样本x_t、时间t、内容特征序列c和说话人嵌入向量s。推理时采用双向Classifier-Free Guidance(CFG)来分别控制整体生成过程和对语言内容的遵循程度。 图2展示了CosyAccent的整体架构,包含语音编码器、CTC头、时长预测器和基于流匹配的语音解码器,并显示了通过位置缩放进行时长控制的机制。 ...

2026-04-29

Cross-Lingual F5-TTS: Towards Language-Agnostic Voice Cloning and Speech Synthesis

📄 Cross-Lingual F5-TTS: Towards Language-Agnostic Voice Cloning and Speech Synthesis #语音克隆 #语音合成 #流匹配 #多语言 #零样本 ✅ 7.5/10 | 前25% | #语音克隆 | #流匹配 | #语音合成 #多语言 学术质量 7.0/7 | 选题价值 8.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Qingyu Liu(上海交通大学 X-LANCE Lab / 约翰斯·霍普金斯大学) 通讯作者:Xie Chen(上海交通大学 X-LANCE Lab / 上海创新研究院)†(论文中明确标注为通讯作者) 作者列表:Qingyu Liu(上海交通大学、约翰斯·霍普金斯大学)、Yushen Chen(上海交通大学、上海创新研究院)、Zhikang Niu(上海交通大学、上海创新研究院)、Chunhui Wang(吉利)、Yunting Yang(吉利)、Bowen Zhang(吉利)、Jian Zhao(吉利)、Pengcheng Zhu(吉利)、Kai Yu(上海交通大学)、Xie Chen(上海交通大学、上海创新研究院) 💡 毒舌点评 亮点:论文精准地找到了flow-matching TTS在跨语言场景下的痛点——对音频提示转录文本的依赖,并通过引入多粒度说话率预测器给出了一个工程上优雅的解决方案。短板:说话率预测器本身只在中文和英文数据上训练,却要声称对德、法、印地、韩等“未见语言”有效,这一结论的支撑略显单薄;此外,去除转录文本后“细粒度说话人特征(如口音、情感)”的迁移能力下降,在论文中被轻描淡写为“未来工作”,但这恰恰是克隆质量的要害。 📌 核心摘要 问题:现有的基于流匹配的文本转语音(TTS)模型在进行跨语言语音克隆时,严重依赖于对音频提示(参考音频)的转录文本,这在目标语言未知或转录不可用时无法实现。 方法核心:提出Cross-Lingual F5-TTS框架。训练时,利用MMS强制对齐工具预处理数据,获取词边界,将音频提示部分及其对应文本完全丢弃,仅用提示音频指导合成剩余被掩码的音频。推理时,为解决缺失文本导致的时长预测难题,训练了音素、音节、词三种粒度的说话率预测器,直接从音频提示的声学特征估算其说话速度,进而结合目标文本的单元数量计算合成时长。 创新点:相比原F5-TTS及同类模型,本文首次在flow-matching TTS框架内实现了无需音频提示转录的跨语言克隆;引入了基于Gaussian Cross-Entropy损失的多粒度说话率预测器作为时长建模的替代方案。 实验结果:在语内测试(LibriSpeech-PC test-clean, SeedTTS test-en/zh)上,该方法在WER和UTMOS等指标上匹配甚至优于原F5-TTS基线(如CL-F5+M1在LibriSpeech-PC test-clean上WER为2.079%,低于基线的2.205%)。在跨语言测试(473个样本,德、法、印地、韩语音提示合成中英文)上,成功实现了克隆,其中M1/M2模型表现良好(如合成英文WER为2.496%),而M3(词级)显著变差(WER达16.494%)。说话率预测器在MRE上表现最佳为M2在中文测试的13.771%。 实际意义:使高质量语音克隆摆脱了对参考音频转录的强依赖,极大扩展了应用场景,尤其是在处理无法转录的罕见语言或实时克隆场景。 局限性:1)说话率预测器在中英文以外语言上的有效性未直接验证,其泛化性存疑。2)去除文本信息后,对说话人细微特征(如口音、情感)的迁移能力下降,论文未提出解决方案。3)跨语言测试集的语言覆盖范围和样本量有限。 🏗️ 模型架构 (图1. Cross-Lingual F5-TTS 训练框架。MMS强制对齐为训练数据生成词边界,左侧片段作为无转录的音频提示,右侧片段的梅尔谱被掩码用于预测) ...

2026-04-29

DAIEN-TTS: Disentangled Audio Infilling for Environment-Aware Text-to-Speech Synthesis

📄 DAIEN-TTS: Disentangled Audio Infilling for Environment-Aware Text-to-Speech Synthesis #语音合成 #流匹配 #零样本 🔥 8.0/10 | 前25% | #语音合成 | #流匹配 | #零样本 学术质量 7.5/7 | 选题价值 6.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ye-Xin Lu(中国科学技术大学 国家语音与语言信息处理工程研究中心) 通讯作者:Yang Ai(中国科学技术大学 国家语音与语言信息处理工程研究中心) 作者列表:Ye-Xin Lu(中国科学技术大学 国家语音与语言信息处理工程研究中心)、Yu Gu(未说明)、Kun Wei(未说明)、Hui-Peng Du(中国科学技术大学 国家语音与语言信息处理工程研究中心)、Yang Ai(中国科学技术大学 国家语音与语言信息处理工程研究中心)、Zhen-Hua Ling(中国科学技术大学 国家语音与语言信息处理工程研究中心) 💡 毒舌点评 亮点在于将语音-环境分离与流匹配音频填充相结合,首次在零样本框架下实现了对时间变化背景环境的独立控制,思路清晰且实验验证充分。短板是高度依赖预训练的语音-环境分离(SES)模块的性能,且推理时要求提供“纯”环境提示音频的假设在真实场景中可能较难满足,限制了其通用性。 📌 核心摘要 问题:现有的零样本语音合成(TTS)系统难以在合成语音时,独立且可控地改变背景声学环境(如从安静房间切换到嘈杂街道),特别是对于时间变化的环境。 方法核心:本文提出DAIEN-TTS,一个基于解纠缠音频填充的环境感知零样本TTS框架。其核心是引入一个预训练的语音-环境分离(SES)模块,将带环境音的语音分解为干净语音和环境音频的梅尔谱。在训练时,对两者分别进行随机掩码,以干净语音谱、环境谱(部分掩码)和文本为条件,通过流匹配模型填充被掩码的完整环境语音梅尔谱。推理时,可使用任意说话人提示和任意环境提示进行合成。 创新点:a) 首次提出一个能独立控制音色和时间变化背景环境的零样本TTS框架。b) 设计了基于交叉注意力的环境条件注入方案,并在推理时采用双无分类器指导(DCFG)和信噪比(SNR)自适应策略来增强可控性。c) 实验表明该方法在自然度、说话人相似度和环境保真度上均表现良好。 主要实验结果:在SeedTTS测试集上,当使用静音环境提示时,DAIEN-TTS的词错率(WER)为1.93%,说话人相似度(SIM-o)为0.60,自然度(MOS)达3.84。当使用背景环境提示合成环境语音时,WER为2.83%,SIM-o为0.55,MOS为3.78,环境相似度(ESMOS)为3.65,均接近或达到人类录音水平。关键结果如下表所示(摘自论文Table 1): 模型 WER(%) ↓ SIM-o ↑ MOS ↑ SSMOS ↑ ESMOS ↑ 场景:静音环境提示 Human (上界) 2.14 0.73 3.91 3.72 - F5-TTS (Clean Spk. Prompt) 2.30 0.58 3.80 3.60 - F5-TTS (Env. Spk. Prompt) 2.87 0.49 3.09 2.92 - DAIEN-TTS 1.93 0.60 3.84 3.64 - 场景:背景环境提示 Human + Environment (上界) 2.80 0.70 3.86 3.81 3.72 DAIEN-TTS 2.83 0.55 3.78 3.73 3.65 实际意义:该技术为有声读物、虚拟现实、游戏等需要生成特定背景环境语音的场景提供了新的解决方案,增强了合成语音的表现力和沉浸感。 主要局限性:a) 框架性能严重依赖预训练SES模块的分离质量,若分离不佳会直接影响合成效果。b) 训练和评估均基于预设的“干净语音-环境音频”配对数据,对于现实世界中无法获得纯净环境音的复杂场景,其适用性有待验证。c) 推理时要求提供纯环境音频提示,这在实际应用中可能不便获取。 🏗️ 模型架构 DAIEN-TTS的整体架构如图1所示,包含训练(左)和推理(右)两个流程。 ...

2026-04-29

Deep Dubbing: End-to-End Auto-Audiobook System with Text-to-Timbre and Context-Aware Instruct-TTS

📄 Deep Dubbing: End-to-End Auto-Audiobook System with Text-to-Timbre and Context-Aware Instruct-TTS #语音合成 #流匹配 #端到端 #有声书生成 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #端到端 #有声书生成 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Ziqi Dai(北京建筑大学智能科学与技术学院,腾讯音乐娱乐Lyra实验室)† 通讯作者:Weifeng Zhao(腾讯音乐娱乐Lyra实验室)⋆, Ruohua Zhou(北京建筑大学智能科学与技术学院)⋆ 作者列表: Ziqi Dai†(北京建筑大学智能科学与技术学院,腾讯音乐娱乐Lyra实验室) Yiting Chen†(腾讯音乐娱乐Lyra实验室) Jiacheng Xu(腾讯音乐娱乐Lyra实验室) Liufei Xie(腾讯音乐娱乐Lyra实验室) Yuchen Wang(腾讯音乐娱乐Lyra实验室) Zhenchuan Yang(腾讯音乐娱乐Lyra实验室) Bingsong Bai(北京邮电大学) Yangsheng Gao(腾讯音乐娱乐Lyra实验室) Wenjiang Zhou(腾讯音乐娱乐Lyra实验室) Weifeng Zhao⋆(腾讯音乐娱乐Lyra实验室) Ruohua Zhou⋆(北京建筑大学智能科学与技术学院) 💡 毒舌点评 亮点:该工作将“为角色从文本生成声音”和“根据上下文生成情感语音”这两个有声书制作的关键环节进行了系统性建模,并提出了Text-to-Timbre (TTT) 这一新颖任务及其流匹配解决方案。短板:其“端到端”的声明略显模糊,因为核心的上下文理解与指令生成依赖于一个外部的大语言模型,这限制了系统真正的自动化程度和独立性。 ...

2026-04-29

Diverse and Few-Step Audio Captioning via Flow Matching

📄 Diverse and Few-Step Audio Captioning via Flow Matching #音频字幕生成 #流匹配 #音频生成 #高效生成 #可控生成 ✅ 6.5/10 | 前50% | #音频字幕生成 | #流匹配 | #音频生成 #高效生成 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(论文仅列出作者姓名,未明确标注第一作者) 通讯作者:未说明 作者列表:Naoaki Fujita(Panasonic Holdings Corporation, Osaka, Japan)、Hiroki Nakamura(Panasonic Holdings Corporation, Osaka, Japan)、Kosuke Itakura(Panasonic Holdings Corporation, Osaka, Japan) 💡 毒舌点评 亮点:首次将流匹配(Flow Matching)引入自动音频字幕生成,实验证明其在大幅减少采样步数(最高25倍)的同时,能保持甚至超越扩散基线的准确性和多样性,效率提升显著。 短板:研究局限于替换生成过程的“最后一公里”,模型架构(BART解码器、BEATs编码器)直接沿用前人工作;更关键的是,论文未开源代码与模型,且未提供训练硬件与时间,严重削弱了其实用价值和可复现性。 📌 核心摘要 要解决的问题:现有的基于扩散模型的多样化音频字幕生成方法,因需要数百步迭代去噪而导致推理计算成本高、速度慢,难以满足实时或大规模处理需求。减少步数则会显著损害生成质量。 方法核心:提出首个基于流匹配的音频字幕生成框架(FAC),直接预测从噪声到字幕表示的确定性、线性传输路径,从而用少量采样步数完成生成。 与已有方法相比新在哪里:完全用流匹配替代了扩散过程。与基于迭代去噪的扩散模型不同,流匹配学习的是近乎直线的概率路径,使得生成过程更高效、稳定。 主要实验结果:在Clotho和AudioCaps数据集上,FAC在30步甚至10步采样下的准确性和多样性指标,与扩散基线(250步)相当或更优。例如,在Clotho上,10步FAC的SPIDEr(0.257)优于250步基线(0.247)。推理时间从每样本2.28秒(250步)降至0.19秒(10步),提速约12倍。通过调节训练时的噪声尺度σ,可以在不增加推理成本的情况下控制生成多样性。 实际意义:为高效、可控的多样化音频字幕生成提供了新方案,降低了流式或实时应用中的延迟和计算开销。 主要局限性:未开源代码和模型;未报告训练硬件与时间;作为首个应用,流匹配在音频字幕任务上的潜力和边界有待进一步探索;实验主要聚焦于生成过程,未改进音频编码器和语言解码器本身。 🏗️ 模型架构 FAC的整体架构遵循DAC-RLD流水线,如图1所示。其核心是用一个流匹配模块替代了原有的扩散去噪模块。 ...

2026-04-29