VoxMorph: Scalable Zero-Shot Voice Identity Morphing via Disentangled Embeddings

📄 VoxMorph: Scalable Zero-Shot Voice Identity Morphing via Disentangled Embeddings #语音克隆 #零样本 #语音合成 #流匹配 #音频安全 🔥 9.0/10 | 前10% | #语音克隆 | #流匹配 | #零样本 #语音合成 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Bharath Krishnamurthy (北德克萨斯大学) 通讯作者:Ajita Rattani (北德克萨斯大学) 作者列表:Bharath Krishnamurthy (北德克萨斯大学), Ajita Rattani (北德克萨斯大学) 💡 毒舌点评 这篇论文堪称生物识别安全领域的一声警钟,它用优雅的技术(解纠缠表示学习)和极低的成本(5秒音频),制造出了一个足以让现有语音验证系统头疼不已的“合成身份”。其亮点在于将看似复杂的攻击变得异常简单高效;短板则是,这种“降维打击”式的技术突破,也立刻暴露了当前ASV系统在应对此类高级、细粒度伪造时的脆弱性,给防御方带来了前所未有的压力。 📌 核心摘要 解决的问题:现有的语音身份变形(VIM)攻击方法存在严重缺陷:计算成本高、不可扩展(需要为每对说话人微调)、依赖声学相似的说话人对,且生成语音质量低。这些限制了其作为实际威胁的可行性。 方法核心:提出VoxMorph,一个零样本框架。其核心是将声音解纠缠为韵律嵌入(说话风格)和音色嵌入(核心身份)。对两个说话人的这两种嵌入分别使用球面线性插值进行混合,然后将融合的嵌入输入一个三阶段合成管线:自回归语言模型生成声学令牌(由融合韵律引导),条件流匹配网络生成梅尔频谱图(由融合音色引导),最后神经声码器生成波形。 与已有方法相比新在哪里:a) 零样本与可扩展性:仅需5秒音频,无需微调即可生成变形语音。b) 解纠缠表示:将风格与身份分离,可独立精细控制,避免了传统单一嵌入混合产生的声学伪影。c) 先进合成架构:利用自回归模型和流匹配模型的强大生成能力,确保了高保真度。d) 首个大规模数据集:发布包含10,000个样本的数据集用于防御研究。 主要实验结果:在严格安全阈值(0.01% FAR)下,VoxMorph-v2实现了67.8%的完全匹配变形成功率(FMMPMR),比之前最优方法(ViM的2.61%)高出数十倍。音频质量(FAD)比基线提升2.6倍,可理解性错误(WER)降低73%。详细对比见下表: 方法 FAD↓ (vs Real) WER↓ KLD↓ MMPMR (%) @ 0.01% FMMPMR (%) @ 0.01% MorphFader [16] 8.96 1.84 0.4332 0.0 0.0 Vevo [3] 9.14 0.54 0.1899 82.40 9.00 ViM [14] 7.52 1.06 0.3501 2.61 0.00 VoxMorph-v1 5.03 0.33 0.1404 78.60 60.60 VoxMorph-v2 4.90 0.19 0.1385 99.80 67.80 实际意义:证明了语音变形攻击已从理论走向实用,对自动说话人验证(ASV)系统构成切实、可扩展的安全威胁。同时,通过开源代码、模型和大规模数据集,为社区研究和开发下一代变形攻击检测(MAD)对策提供了关键工具和基准。 主要局限性:a) 攻击属性:该技术本身是一种攻击手段,存在滥用风险。b) 评估局限:评估主要在LibriSpeech数据集上进行,且攻击的是特定ASV系统(Resemblyzer),对真实世界、多场景、多模态ASV系统的威胁程度有待进一步验证。c) 多说话人变形:当前方法聚焦于两两变形,未来可扩展至更多说话人融合。 🏗️ 模型架构 VoxMorph是一个端到端的零样本语音身份变形框架,其整体架构如图1所示,包含提取、插值、合成三个核心阶段。 ...

2026-04-29

VoXtream: Full-Stream Text-To-Speech With Extremely Low Latency

📄 VoXtream: Full-Stream Text-To-Speech With Extremely Low Latency #语音合成 #自回归模型 #流式处理 #零样本 🔥 8.5/10 | 前25% | #语音合成 | #自回归模型 | #流式处理 #零样本 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nikita Torgashov(KTH皇家理工学院,语音、音乐与听觉系) 通讯作者:未说明 作者列表:Nikita Torgashov(KTH皇家理工学院,语音、音乐与听觉系)、Gustav Eje Henter(KTH皇家理工学院,语音、音乐与听觉系)、Gabriel Skantze(KTH皇家理工学院,语音、音乐与听觉系) 💡 毒舌点评 亮点:这篇论文最精妙的地方在于,它通过将文本编码器(Phoneme Transformer)设计为增量式,并限制了前瞻长度,巧妙地实现了“收到一个词就开口说”的极低延迟,同时利用单调对齐和分层预测保证了合成质量的连贯性。短板:尽管模型效率很高,但训练数据规模(9k小时)在当下这个“数据为王”的大模型时代只能算中等,这可能限制了其在超大规模、多语言或更复杂说话风格下的泛化能力上限,论文也承认了数据规模是未来工作之一。 📌 核心摘要 问题:当前流式文本转语音(TTS)系统存在较高的初始延迟(从输入文本到发出第一个音素的时间),或需要复杂的多阶段流水线,影响了实时交互体验。 方法核心:提出VoXtream,一个完全自回归的零样本流式TTS模型。其核心是一个三层Transformer架构:(1) 增量音素Transformer(PT)逐步编码输入文本并允许有限前瞻;(2) 时间Transformer(TT)基于音素和过去音频预测语义令牌和时长令牌;(3) 深度Transformer(DT)基于前两者生成声学令牌。关键设计是基于“停留/切换”标志的单调音素对齐预测。 创新点:与先前工作相比,VoXtream首次实现了从接收到第一个词就开始生成语音的增量处理模式,无需等待整个句子或固定数量的未来词。它将文本编码、时序预测和声学生成解耦到三个专用模块中,平衡了延迟与质量。 实验结果:在公开流式TTS模型中达到了最低的首次分组延迟(FPL):102ms(使用torch.compile加速后)。在9k小时数据上训练,其质量(WER, SPK-SIM, UTMOS)可与甚至超越许多使用更大规模数据训练的非流式和流式基线模型。在主观MUSHRA评测中,其流式版本的自然度与部分非流式模型相当。在长文本流式场景下,其自然度显著优于CosyVoice2。 实际意义:为需要极低延迟响应的实时语音应用(如语音助手、同步翻译、对话AI)提供了一个高效且高质量的解决方案,推动了流式语音合成技术的实用化。 主要局限性:训练数据规模(9k小时)中等;在零样本说话人相似度上,仍低于使用更大规模数据和非自回归解码器(如流匹配)的顶级模型(如CosyVoice2);长文本流式合成的稳定性有待进一步验证。 🏗️ 模型架构 VoXtream的架构(见图1)旨在实现从文本流到音频流的端到端、低延迟转换。它由三个核心Transformer模块组成,数据流如下: 图1:VoXtream架构概览。输入文本流被增量地送入Phoneme Transformer(PT)。PT结合有限的未来音素(Look-Ahead)进行编码。其输出被送入时间Transformer(TT),TT联合预测语义令牌(来自Mimi编码器的第一码本)和时长令牌(包含“停留/切换”标志及发音速度信息)。TT的输出和语义令牌被送入深度Transformer(DT),DT结合说话人嵌入,自回归地生成剩余的声学令牌(来自Mimi编码器的第2-12码本)。最后,Mimi解码器将每帧的语义和声学令牌转换为波形。 组件详解: 音素Transformer(Phoneme Transformer, PT):这是一个解码器风格的Transformer,负责将输入的音素序列编码为隐藏表示。其核心创新是增量处理:每收到一个新词,就将其音素加入输入序列并更新隐藏状态,而不是等待整个句子。为了提升韵律自然度,允许PT“向前看”最多N个音素(Look-Ahead, LA),但这个前瞻是有限且延迟最小化的——模型在收到第一个词后立即开始输出,前瞻仅影响后续生成,不阻塞启动。 时间Transformer(Temporal Transformer, TT):这是系统的自回归核心,以步进方式工作。在每个时间步(对应Mimi编码器的一个音频帧,12.5Hz),TT接收:a) 过去生成的音频令牌(第一码本,语义令牌);b) 由MFA对齐工具得到的、与当前时间步对齐的音素序列及其隐藏状态(来自PT)。TT输出两个分类结果: 语义令牌:Mimi编码器的第一码本令牌,代表当前帧的语音内容。 时长令牌:一个二元组 (shift_flag, phoneme_count)。shift_flag(1或0)是“停留/切换”标志,指示下一帧是继续发当前音素(0,停留)还是切换到下一个音素(1,切换)。phoneme_count(1或2)表示当前帧对应的音素数量,用于控制语速(1个音素=慢,2个音素=快)。这种设计实现了单调对齐,确保音频和文本的进度严格同步。 深度Transformer(Depth Transformer, DT):在TT预测出当前帧的语义令牌后,DT负责填充该帧的其余声学细节。它是一个更小的自回归Transformer,以TT的输出嵌入、当前的语义令牌以及一个预训练的说话人嵌入(来自ReDimNet)为条件,自回归地生成Mimi编码器的第2至第12码本的声学令牌。这些令牌共同描述了该帧的详细声学特征。 音频编解码器(Mimi):采用预训练的Mimi流式编解码器。编码器将24kHz的波形编码为多码本令牌(12个码本,帧率12.5Hz)。TT预测第一码本(语义),DT预测其余码本(声学)。解码器能以流式方式将每帧的令牌转换为80ms的音频波形。 整体流程:文本流 → 音素流 → PT增量编码 → TT逐帧预测语义+时长令牌 → DT逐帧填充声学令牌 → Mimi解码器流式输出波形。整个过程是纯自回归的,且文本输入和音频输出是交织进行的,因此实现了极低的首次分组延迟。 ...

2026-04-29

WavLink: Compact Audio–Text Embeddings with a Global Whisper Token

📄 WavLink: Compact Audio–Text Embeddings with a Global Whisper Token #音频检索 #对比学习 #零样本 #预训练 #迁移学习 🔥 8.0/10 | 前25% | #音频检索 | #对比学习 | #零样本 #预训练 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:Gokul Karthik Kumar (Technology Innovation Institute, Abu Dhabi, UAE) 通讯作者:未说明 作者列表:Gokul Karthik Kumar (Technology Innovation Institute, Abu Dhabi, UAE)、Ludovick Lepauloux (Technology Innovation Institute, Abu Dhabi, UAE)、Hakim Hacid (Technology Innovation Institute, Abu Dhabi, UAE) 💡 毒舌点评 这篇论文巧妙地将用于语音识别的Whisper模型“降维”用于音频文本嵌入,用一个全局token替代了1500个帧特征,在检索任务上取得了优于CLAP系列模型的效果,思路清晰且实用。然而,其在零样本分类(如ESC-50)上的性能落后于专用模型,表明为ASR预训练的特征在通用音频理解上仍有局限;同时,论文对“为何选择现代BERT并表现不佳”的讨论不够深入。 ...

2026-04-29

Why Do Speech Language Models Fail to Generate Semantically Coherent Outputs? A Modality Evolving Perspective

📄 Why Do Speech Language Models Fail to Generate Semantically Coherent Outputs? A Modality Evolving Perspective #语音生成 #语音大模型 #模型评估 #零样本 #基准测试 ✅ 7.0/10 | 前25% | #语音生成 | #模型评估 | #语音大模型 #零样本 学术质量 5.5/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Hankun Wang(X-LANCE Lab, 上海交通大学计算机科学与技术学院) 通讯作者:Kai Yu(X-LANCE Lab, 上海交通大学计算机科学与技术学院) 作者列表:Hankun Wang(X-LANCE Lab, 上海交通大学), Haoran Wang(X-LANCE Lab, 上海交通大学), Yiwei Guo(X-LANCE Lab, 上海交通大学), Zhihan Li(X-LANCE Lab, 上海交通大学), Chenpeng Du(X-LANCE Lab, 上海交通大学), Kai Yu(X-LANCE Lab, 上海交通大学) 💡 毒舌点评 本文像一份详尽的“体检报告”,精准诊断出端到端语音大模型“语义表达不畅”的三大病根:音素编码不语义、序列太长、口音情绪太杂乱,并证明后两者影响远大于第一个。然而,光有诊断没有药方,论文止步于“未来可从短序列和强监督入手”的开放式建议,对于急需突破的社区而言,这记重拳打在了空气里。 ...

2026-04-29

ZSV2C-MLLM: Zero-Shot Visual Voice Cloning Via Multimodal Large Language Models

📄 ZSV2C-MLLM: Zero-Shot Visual Voice Cloning Via Multimodal Large Language Models #语音克隆 #多模态模型 #零样本 #强化学习 #语音合成 ✅ 6.5/10 | 前50% | #语音克隆 | #多模态模型 | #零样本 #强化学习 学术质量 5.8/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Yanling Zhang(昆明理工大学) 通讯作者:Shengxiang Gao(昆明理工大学) 作者列表:Yanling Zhang(昆明理工大学,云南人工智能重点实验室)、Linqing Wang(昆明理工大学,云南人工智能重点实验室)、Shengxiang Gao(昆明理工大学,云南人工智能重点实验室) 💡 毒舌点评 亮点:论文最大的亮点在于将“情感规划”这个抽象任务显式地交给一个经过微调的大语言模型来完成,这个思路比传统基于规则或回归的方法更灵活,也更契合当前LLM赋能各任务的潮流。短板:论文在最关键的“如何做到零样本”和“LLM具体如何规划韵律”这两个核心问题上,细节描述过于粗疏,比如对“融合”操作(公式1)和“情绪调制”函数(公式4)的实现一笔带过,给人的感觉是框架大于细节,实验数据漂亮但“黑盒”感较强。 📌 核心摘要 要解决的问题:现有的视觉语音克隆(V2C)方法大多依赖于配对的音频-视觉数据,缺乏零样本能力,这限制了其在资源受限环境(如无配对数据)下的可扩展性。 方法核心:提出一个零样本V2C框架,集成文本、静音视频、参考音频和用户情感标签作为输入。其核心创新是一个基于预训练大语言模型(Qwen)的情感韵律规划器,它能根据多模态融合特征生成连续的韵律轨迹(如音高、语速、停顿)。 与已有方法相比新在哪里:主要区别在于引入了LLM作为多模态信息整合与情感韵律规划的中心模块,并实现了无需配对音频数据的零样本推理。相比于V2C-Net、Face-TTS等方法,该框架在数据要求上更灵活。 主要实验结果:在GRID和CHEM两个数据集上,该方法在语音质量(MOS-S)、自然度(MOS-N)和说话人相似度(SPK-SIM)上均显著优于基线方法。例如,在GRID数据集上,MOS-S达到3.94,比最强基线Multi-TTS(3.50)高0.44;SPK-SIM达到71.52,远高于其他方法。消融实验证明,移除视觉输入、情感控制、强化学习或LLM规划器都会导致性能明显下降。 实际意义:为电影配音、语音修复、交互媒体等需要情感化语音合成但缺乏配对训练数据的场景,提供了一种可扩展的解决方案。 主要局限性:实验仅在两个相对小规模和特定领域的数据集(GRID为命令式语音,CHEM为情感语音)上验证,对于更复杂、更自然对话场景的泛化能力未证明。此外,论文未公开代码和模型细节,可复现性存疑。 🏗️ 模型架构 该框架是一个多输入、多模块的端到端系统,旨在生成情感可控的语音。整体流程可概括为:多模态特征提取与融合 -> LLM情感韵律规划 -> 条件概率语音生成 -> 强化学习优化。 输入:静音视频(提供节奏和情感线索)、文本(提供语义内容)、参考音频(提供目标说话人音色)、用户定义的情感及强度。 组件与数据流: 视频编码器:分析视频帧,提取面部表情、唇部运动等视觉特征(V),捕捉情绪和节奏信息。 文本编码器:将输入文本编码为语义嵌入向量(T)。 说话人编码器:从参考音频中提取音色嵌��(A),保留说话人身份信息。 特征融合:三个模态的特征(V, T, A)通过一个融合函数 f_fusion 被整合为统一的特征表示(F)。论文未详细说明此融合函数的具体结构(如注意力、拼接等)。 情感控制网络:用户提供情感类型和强度,由情感专家分类器(EmoBox)引导。这产生一个随时间步变化的情感参数(E_t 或 η_t)。 LLM情感韵律规划器(核心创新):采用微调后的Qwen大语言模型。它接收融合特征(F)和情感参数(E_t),输出韵律轨迹(P_t),包括情感强度、音高偏移、语速、停顿时长等。这一步是动态、细粒度的控制关键。 语音分词器与条件概率生成:根据韵律轨迹(P_t)和文本,以自回归方式(公式3)生成语音token。公式4引入了情绪调制概率,使情感影响语音的生成过程。 强化学习模块:通过最大化奖励函数(R)来优化整个生成过程,奖励(r_t)基于语音自然度、情感表达力、与参考音频的对齐程度等。 架构图:论文提供了两张关键图表。 图1:![Multimodal V2C System Overview](/audio-paper-digest-blog/images/icassp-2026/2026-04-29/11461223-0.png) 此图清晰地展示了系统的三大块:(a) 系统架构,包含LLM规划器、视频编码器、文本编码器、情感控制网络和语音分词器;(b) 情感控制机制,展示了用户如何选择情感并调整强度;(c) 静音视频特征提取细节,显示了视频编码器如何利用多头注意力对齐韵律与视觉线索。 图2:![MFCC comparison of timbres](/audio-paper-digest-blog/images/icassp-2026/2026-04-29/11461223-1.png) 此图对比了用户原始音色、本文方法生成音色和基线生成音色的MFCC图,直观地展示了该方法在保持音色(SPK-SIM)方面的优势。 设计选择动机:选择LLM作为规划器,是因其强大的序列建模和上下文理解能力,有望更好地捕捉韵律与情感、文本之间的长程依赖关系,克服传统规则或简单回归模型的局限。 💡 核心创新点 基于LLM的情感韵律规划器:是什么:使用微调的大语言模型(Qwen)作为核心,根据多模态输入生成连续的、细粒度的韵律控制参数。之前局限:传统方法多采用基于规则或轻量级神经网络(如Variance Adaptor)的规划器,其建模复杂情感-韵律交互的能力有限。如何起作用:LLM能利用其从海量数据中学到的丰富序列知识,更好地理解“在何种情感和视觉情境下,应该采用何种韵律”这一复杂映射。收益:消融实验表明,用LLM替代规则或方差适配器规划器,在所有指标上都取得了提升,尤其在情感一致性和自然度上优势明显。 零样本视觉语音克隆框架:是什么:一个无需配对音视频数据即可进行视觉语音克隆的完整框架。之前局限:现有V2C方法(如V2C-Net, HPMDubbing)严重依赖大规模、高质量的配对数据进行训练,限制了其应用场景和扩展性。如何起作用:通过分离音色(来自参考音频)和情感/韵律(来自视觉和文本)的建模路径,并利用迁移学习(预训练LLM和编码器),使得模型能够泛化到未见过的说话人。收益:实验证明该方法在“使用未见过的说话人作为参考音频”设置下仍表现优异,使其适用于电影配音等现实场景。 显式、连续的情感控制机制:是什么:允许用户通过选择情感类型和调节强度(e和λ)来精确控制生成语音的情感表达。之前局限:许多方法的情感控制是隐式或离散的(仅限预定义类别),控制粒度粗糙。如何起作用:情感参数(E_t)作为关键输入,被送入LLM规划器,直接影响韵律轨迹的生成。收益:提供了灵活、可调的情感表达能力,增强了实用性。 🔬 细节详述 训练数据:使用了两个数据集:GRID(提供同步音视频,用于学习视觉-音频关系)和CHEM(带有情感标签的语音数据)。论文未提供具体的数据集规模、预处理步骤或数据增强方法。 损失函数:论文未明确说明训练时使用的主要损失函数(如重建损失、KL散度等)。仅提及通过强化学习优化一个包含自然度、表达力、对齐度等的综合奖励函数(公式5)。 训练策略:优化器为Adam,初始学习率1e-4,每10,000步衰减0.9。采用了基于验证集损失的早停法。未说明batch size、训练总步数/轮数、warmup策略等。 关键超参数:论文未提供模型的具体规模参数,如LLM的层数、隐藏维度、各编码器的参数量等。 训练硬件:在6块NVIDIA RTX 4090 GPU集群上训练。未提供训练时长。 推理细节:采用自回归方式生成语音token(公式3)。未提及具体的解码策略(如温度、beam search大小)、是否支持流式输出等。 正则化技巧:仅提到了早停法,未提及其他正则化方法(如Dropout、权重衰减的具体设置)。 📊 实验结果 论文在两个数据集上进行了充分的对比实验和消融研究。 ...

2026-04-29

MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control

📄 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control #语音合成 #流匹配 #零样本 #可控合成 #流式处理 ✅ 7.0/10 | 前25% | #语音合成 | #流匹配 | #零样本 #可控合成 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Jialong Mai(华南理工大学)、Xiaofen Xing(华南理工大学,通讯作者)、Xiangmin Xu(华南理工大学) 💡 毒舌点评 这篇论文精准地瞄准了现代TTS系统中一个被忽视但实际应用中很关键的痛点——缺乏token级别的精细时长和停顿控制,并为此设计了一套从数据准备到训练机制的系统性解决方案,实验也做得很扎实。其短板也很明显:为了获得这种控制能力,模型在无控制的“自发合成”模式下,语音识别错误率(WER/CER)有明显上升,这表明精细控制与生成自然度之间存在一个不容忽视的权衡,而且目前没有任何开源迹象。 📌 核心摘要 解决的问题:现有的文本到语音(TTS)系统通常只能提供句子级的语速或时长控制,缺乏对每个token(音素或字符)内容发音时长和停顿时长的显式、精细控制能力,这限制了需要精确节奏控制的应用场景。 方法核心:提出了MAGIC-TTS,一种基于流匹配(Flow Matching)的零样本TTS模型。其核心是在文本表示中显式注入每个token的内容时长(d_i)和停顿时长(p_i)作为条件。通过精心设计的两阶段训练(大规模时长条件预训练+高置信度时长监督微调)、零值校正(使零时长输入不产生残差)和缺失控制鲁棒性训练(随机丢弃时长条件),使模型既能可靠地遵循时长指令,又能在无时长指令时保持自然合成。 与已有方法相比新在哪里:与现有提供全局语速或风格控制的系统不同,MAGIC-TTS是首个提供显式、token级内容时长和停顿控制的TTS模型。与一些将时长作为内部中间变量的系统不同,它将时长设计为外部可直接操控的高置信度条件,而非需要隐式推断的潜在变量。 主要实验结果: 在时长控制准确性上,提供显式时长条件后,内容时长MAE从36.88ms降至10.56ms,相关性从0.588提升至0.918;停顿MAE从18.92ms降至8.32ms(详见表1)。 在局部编辑基准测试中,模型能根据指令调整局部时长,例如将目标内容时长从170ms编辑为225ms后,实现均值为207.40ms(绝对偏差17.60ms)(详见表2)。 消融实验表明,零值校正和高置信度时长监督对提升内容时长控制精度至关重要(详见表3)。 关键权衡:在无控制模式下,与同等规模持续预训练的基线相比,最终模型的英文WER从1.994升至3.434,中文CER从1.772升至2.215(详见表7)。 实际意义:为需要精确节奏控制的语音生成场景(如导航提示、引导式朗读、无障碍辅助阅读代码/验证码)提供了解决方案,能够实现可复现的均匀节奏基线,并支持局部编辑。 主要局限性:获得精细控制能力的代价是无控制模式下的合成质量(清晰度)有所下降;评估依赖于MFA强制对齐,存在测量误差;论文未提及代码和模型的开源。 🏗️ 模型架构 MAGIC-TTS建立在非自回归的零样本TTS骨干网络(F5-TTS)之上,该骨干基于条件流匹配(Conditional Flow Matching)生成梅尔频谱图。 ...

2026-04-28

Beyond Acoustic Sparsity and Linguistic Bias: A Prompt-Free Paradigm for Mispronunciation Detection and Diagnosis

📄 Beyond Acoustic Sparsity and Linguistic Bias: A Prompt-Free Paradigm for Mispronunciation Detection and Diagnosis #发音错误检测 #自监督学习 #知识蒸馏 #数据增强 #零样本 🔥 8.5/10 | 前25% | #发音错误检测 | #自监督学习 #知识蒸馏 | #自监督学习 #知识蒸馏 | arxiv 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Haopeng Geng (The University of Tokyo, Graduate School of Engineering) 通讯作者:未说明(论文未明确指定通讯作者) 作者列表:Haopeng Geng (The University of Tokyo, Graduate School of Engineering), Longfei Yang (The University of Tokyo, Graduate School of Engineering), Xi Chen (The University of Tokyo, Graduate School of Engineering), Haitong Sun (The University of Tokyo, Graduate School of Engineering), Daisuke Saito (The University of Tokyo, Graduate School of Engineering), Nobuaki Minematsu (The University of Tokyo, Graduate School of Engineering) 💡 毒舌点评 论文精准地将当前MDD方法的不足归纳为“声学陷阱”和“语言学陷阱”,并给出了一个逻辑自洽且有效的解决方案CROTTC-IF,最终在多个数据集上取得了SOTA或极具竞争力的性能,展现了扎实的工程能力和清晰的学术思考。然而,论文对“声学权重λ”在真实场景中的最佳取值(如非实验环境、自发语音)缺乏讨论,且最终框架对λ的敏感性也暗示了“解耦”的理想与“融合”的现实之间仍存在张力。 ...

2026-04-27

MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control

📄 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control #语音合成 #流匹配 #零样本 #语音大模型 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #零样本 #语音大模型 | arxiv 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Jialong Mai(华南理工大学)、Xiaofen Xing(华南理工大学)、Xiangmin Xu(华南理工大学) 💡 毒舌点评 亮点在于首次将“token级时长与停顿”作为显式数值条件注入Flow-based TTS,思路清晰且工程设计(如零值校正、交叉验证数据构建)巧妙。短板是实验规模和场景相对有限(主要在中文短句上验证),且缺乏与更多现代零样本TTS基线(如CosyVoice 2、MaskGCT)的直接对比,说服力可以更强。 📌 核心摘要 问题:现有的文本转语音(TTS)系统通常只提供语句级的时长控制或全局语速调节,缺乏对单个token(如音素、字)的精确发音时长和停顿的显式、细粒度控制能力。 方法核心:提出MAGIC-TTS,这是一个基于流匹配(Flow Matching)的零样本TTS模型。其核心是通过残差连接,将token级的内容时长(di)和停顿(pi)作为显式数值条件注入到文本表征中,从而引导并行声学生成器进行合成。 创新点:这是首个支持token级显式时长与停顿控制的TTS模型。关键创新包括:1)设计了可学习的门控残差注入机制,将时长条件融入文本嵌入;2)提出零值校正方法,平衡内容时长与停顿两个控制分支的学习信号;3)构建了基于交叉验证的高置信度时长监督数据集,用于稳定训练。 主要实验结果: 时长控制精度:在B@150测试集上,与无控制的“自发合成”相比,提供显式控制后,内容时长平均绝对误差(C-MAE)从36.88ms降至10.56ms,相关性(C-Corr.)从0.588升至0.918;停顿平均绝对误差(P-MAE)从18.92ms降至8.32ms,相关性(P-Corr.)从0.283升至0.793。 局部编辑场景:在导航、朗读等场景中,模型能以极低偏差(内容时长偏差1.07ms)实现均匀时长基线,并能将局部编辑区域有效推向目标值(内容时长偏差17.60ms,停顿偏差23.33ms)。 消融实验:移除零值校正或高置信度监督会损害控制精度,尤其是更精细的内容时长控制。 实际意义:使TTS系统能够支持需要精确节奏控制的实用场景,如导航提示的均匀播报、教学朗读的节奏引导、以及无障碍代码阅读的特定停顿。 主要局限性:模型性能高度依赖外部对齐工具(如MFA、Stable-ts)提供的时长标签质量;实验主要集中在中文短句,对长文本、多语言及更复杂韵律的泛化能力未充分验证;未开源代码和模型。 🏗️ 模型架构 MAGIC-TTS建立在基于条件流匹配(Conditional Flow Matching)的非自回归零样本TTS骨干网络(F5-TTS)之上。其整体流程如下: ...

2026-04-25

语音/音频论文速递 2026-04-25

语音/音频论文速递 2026-04-25 共分析 2 篇论文 ⚡ 今日概览 📥 抓取 2 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #机器人技能学习 1篇 █ #语音合成 1篇 █ 📊 论文评分排行榜(2 篇,按分数降序) 排名 论文 评分 分档 主任务 🥇 MOMO: A framework for seamless physical, verbal, and gr 7.5分 前25% #机器人技能学习 🥈 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis w 7.5分 前25% #语音合成 📋 论文列表 🥇 MOMO: A framework for seamless physical, verbal, and graphical robot skill learning and adaptation ✅ 7.5/10 | 前25% | #机器人技能学习 | #多模态模型 | #大语言模型 #工业应用 | arxiv ...

2026-04-25

MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control

📄 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control #语音合成 #流匹配 #零样本 #可控生成 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #零样本 #可控生成 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Jialong Mai(华南理工大学)、Xiaofen Xing(华南理工大学)、Xiangmin Xu(华南理工大学) 💡 毒舌点评 亮点在于它系统性地解决了TTS中“token级时长控制”这个长期被忽略的痛点,并通过精巧的条件注入和高置信度数据监督,实现了从“全局语速”到“单字时长”的可控性飞跃,为有声读物、语音导航等应用提供了新工具。短板是论文在展示“控制力”的同时,未能充分证明其“合成力”——即与当前顶尖的零样本TTS模型(如CosyVoice 2)相比,其默认语音的自然度和表现力是否依然具有竞争力,这使得其实际应用价值打上了一个问号。 📌 核心摘要 问题:现代文本到语音(TTS)系统普遍缺乏对单个token(字/音素)级别内容时长和停顿的精确、显式控制能力,现有控制通常仅限于句子级语速或全局风格,无法满足需要精细节奏控制的场景。 方法核心:本文提出了MAGIC-TTS,首个支持显式token级时长和停顿控制的TTS模型。其核心是在一个基于流匹配(Flow Matching)的零样本TTS骨干网络上,通过可学习的残差向量将token级的时长和停顿数值作为显式条件注入文本表示。同时,设计了高置信度时长监督数据构建流程(交叉验证Stable-ts与MFA对齐)和训练机制(零值校正、控制缺失鲁棒性训练)来确保控制的可靠性。 创新点:a) 首次实现显式、可解释的token级内容时长与停顿控制;b) 提出了结合大规模弱监督和高置信度交叉验证的时长数据构建方法;c) 通过零值校正和随机丢弃训练,平衡了可控合成与默认高质量合成。 主要实验结果:在时序控制基准测试中,提供显式控制后,内容时长MAE从36.88ms降至10.56ms,相关性从0.588升至0.918;停顿MAE从18.92ms降至8.32ms。在局部编辑场景测试中,模型能以低偏差(内容17.60ms,停顿23.33ms)将编辑区域向目标值调整。消融实验证明了零值校正和高置信度监督的有效性。 实际意义:使TTS系统能够支持需要精确节奏控制的应用,如导航语音的局部强调、有声读物的节奏引导、无障碍场景下的代码朗读等,提升了语音合成的可编程性和实用性。 主要局限性:a) 未与当前SOTA的零样本TTS模型在合成自然度、说话人相似度等核心指标上进行对比,无法评估其在通用合成质量上的水平;b) 评估主要基于中文数据,缺乏多语言验证;c) 未开源代码和模型,复现门槛高。 🏗️ 模型架构 MAGIC-TTS建立在一个基于条件流匹配(Conditional Flow Matching)的非自回归零样本TTS骨干网络(具体为F5-TTS)之上。其核心创新在于对文本侧条件表示的增强,以注入显式时序控制。 ...

2026-04-24