NVBench: A Benchmark for Speech Synthesis with Non-Verbal Vocalizations

📄 NVBench: A Benchmark for Speech Synthesis with Non-Verbal Vocalizations #语音合成 #基准测试 #多语言 #大语言模型 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:刘梦(Liumeng Xue)(南京大学,智能软件与系统实验室) 通讯作者:刘梦(lmxue@nju.edu.cn),郭毅可(Yike Guo)(推测为资深作者) 其他作者: 卞伟真(Weizhen Bian)(南京大学) 潘家浩(Jiahao Pan)(香港科技大学) 王文轩(Wenxuan Wang)(香港中文大学) 任逸林(Yilin Ren)(北京航空航天大学) 康博宇(Boyi Kang)(西北工业大学) 胡敬斌(Jingbin Hu)(上海交通大学) 马子阳(Ziyang Ma)(南京大学) 王帅(Shuai Wang)(南京大学) 钱欣源(Xinyuan Qian)(南京大学) 李宏毅(Hung-yi Lee)(台湾大学) 郭毅可(Yike Guo)(香港科技大学) 💡 毒舌点评 亮点:这是一篇“基建狂魔”式的论文,终于有人把语音合成里那些“嗯嗯啊啊”的非语言声音(NVV)的评估给标准化了,45类分类法和双语数据集做得相当扎实,为后续研究立好了靶子。 槽点:作为基准测试论文,它本身不提出新的合成模型,有点像“只测评不造轮子”,对于追求算法创新的读者来说可能不够“性感”;而且用LLM当裁判,虽然努力控制偏见,但“AI评AI”的可靠性争议依然存在。 📌 核心摘要 这篇论文旨在解决语音合成(TTS)领域中一个关键但被忽视的问题:如何标准化评估系统生成非语言声音(NVV,如笑声、叹息)的能力。作者提出了NVBench,一个包含45类NVV统一分类体系的双语(英/中)基准。其核心方法包括:1)构建了一个每类50例、总计4500例的高质量平衡评估数据集;2)设计了多轴评估协议,将通用语音质量与NVV特有的可控性、放置准确性和感知显著性分离开来;3)综合运用客观指标、人工听测和基于LLM的多评判员评估,对15个代表性的TTS系统(涵盖提示式和标签式控制)进行了全面测评。主要发现表明,NVV的可控性常常与整体语音质量解耦,而低信噪比的口腔音和长时情感性NVV(如哭泣)仍是持续的技术瓶颈。该工作为公平、全面地比较和改进NVV合成能力提供了一个标准化框架。 🏗️ 模型架构 注意:本文并非提出一个新的合成模型,而是提出一个评估基准框架。其核心“架构”是评估流程和数据集构建流程。 整体流程:输入为包含NVV指令的文本(标签式[laugh]或提示式“…said with a laugh”),经过待测TTS系统生成语音,再通过NVBench的评估协议进行多维度分析。 核心组件: NVV分类体系:一个包含6大类(呼吸、喉/生理、笑声谱、哭泣谱、情感发声、口腔/其他)和45个细分类别的结构化树状体系。 数据构建流水线:三阶段流程:a) 从现有双语语音数据集中用LLM挖掘NVV种子;b) 基于分类体系,用LLM按统一模式生成文本-描述对;c) 自动检查与人工审核迭代,确保每类50个高质量样本。 评估协议: 客观指标:包括通用指标(WER/CER, DNSMOS)和NVV特异性指标(针对标签式系统的精确率/召回率/F1, 标准化标签距离NTD;针对提示式系统的CLAP分数)。 主观指标:5分制Likert量表,评估自然度、质量、NVV感知效果(PE)、指令跟随(IF)等。 LLM多评判员评估:使用Gemini 2.5 Pro作为评判员,采用匿名化、随机化、多轮评估等策略,评估指标与主观测试对齐。 数据流:待评估的TTS系统是黑盒,输入是NVBench数据集中的text_with_nvv(标签式)或caption_with_nvv(提示式),输出是合成语音。该语音被送入ASR、质量评估模型、NVV检测器(基于GT约束的Gemini验证)以及人类/LLM评判员,得到多维度分数。 💡 核心创新点 统一的NVV分类与数据集: 是什么:首次提出了一个涵盖45类、覆盖从呼吸到哭泣等广泛NVV的统一分类法,并据此构建了英汉双语平衡评估数据集。 之前:现有系统和数据集支持的NVV类型有限、碎片化、标签不一致,无法进行系统化评估。 效果:为领域提供了共同语言和可复现的测试基础,使跨系统比较成为可能。 解耦的多轴评估协议: 是什么:明确将评估维度拆解为“通用语音质量”和“NVV特定能力”(可控性、放置、显著性)。 之前:评估往往将NVV视为风格的一部分,与语音质量混在一起,难以诊断具体弱点。 效果:能精确揭示系统在哪方面强或弱(如某系统音质好但NVV控制差),指导针对性改进。 面向NVV的客观指标设计: 是什么:为标签式控制设计了基于“地面真值约束验证”的NVV检测方法,并由此计算精确率、召回率、F1和标准化标签距离(NTD)。 之前:缺乏直接评估NVV生成正确性和时间位置准确性的标准客观方法。 效果:实现了可扩展、可量化的NVV可控性评估,与主观感知形成互补。 全面的系统测评与洞察: 是什么:对15个前沿系统(商业与开源,提示式与标签式)进行了大规模测评,揭示了“质量与可控性解耦”、“长时/细微NVV是瓶颈”等关键现象。 之前:缺乏在统一基准下对不同控制范式系统的横向比较。 效果:为研究社区提供了清晰的现状图景和未来研究方向(如提升覆盖度、改善长时NVV建模)。 🔬 细节详述 训练数据:不适用。本文是评估基准,不训练新模型。评估数据集通过三阶段流水线构建,最终包含45类×50例×2语言=4500个高质量NVV实例,源自对InstructTTSEval数据集的挖掘和LLM辅助生成。 损失函数/训练策略:不适用。 关键超参数/训练硬件:不适用。 评估细节: 客观指标:使用Whisper-large-v3(英)和paraformer-zh(中)进行ASR转写。使用DNSMOS P.835预测语音质量。CLAP分数用于提示式系统的语义对齐。对于标签式系统,使用Gemini 2.5 Pro作为验证器,给定合成语音、原文本和目标NVV类型,判断NVV是否存在并插入标记,从而计算位置误差。NTD是匹配样本的位置误差按文本长度归一化后的均值。 主观测试:通过Prolific平台招募97名评分者,对每种语言随机抽取450个样本(每类10个)进行5分制评分。 LLM评估:使用Gemini 2.5 Pro,采用低温采样(0.2)、固定种子、多轮三折评估、匿名化比较等策略以保证稳定性。每个样本由4个独立LLM评判员子集评估。 系统覆盖:评估了7个提示式系统(如Gemini 2.5 Pro/Flash, GPT-4o mini TTS, Qwen3-TTS)和8个标签式系统(如ElevenLabs, ChatTTS, Orpheus TTS, CosyVoice 2)。 📊 实验结果 主要指标对比(摘要): 提示式系统(英语): 最佳质量/自然度:Gemini 2.5 Pro (主观自然度4.07, DNSMOS OVRL 4.30)。 最佳可控性(NVV IF):Gemini 2.5 Pro (主观2.74)。 最佳语义对齐(CLAP):Qwen3-TTS (0.45)。 最佳客观质量(DNSMOS):GPT-4o mini TTS (OVRL 4.14)。 标签式系统(英语): 最佳综合(主观):ElevenLabs (自然度4.60, 质量4.71, NVV PE 3.92, NVV Accuracy 4.21)。 最佳NVV正确性(客观F1):Orpheus TTS (0.728)。 最高覆盖度:ElevenLabs (0.27), Dia (0.29)。 关键发现: 质量与可控性解耦:例如,CosyVoice 2在中文上主观质量分很高(4.35),但NVV准确性(1.65)和显著性(1.56)较低。Gemini 2.5 Flash的WER很差(因生成额外内容),但主观自然度很高。 NVV类型难度差异大:热图分析显示,笑声、咳嗽等突发性NVV普遍得分较高;而口腔音(如tsk, lipsmack)和长时情感音(如crying, sobbing)在所有系统上得分都低。 控制范式差异:标签式系统覆盖度有限但控制精确;提示式系统理论覆盖所有类型但实现不稳定,易出现内容边界问题。 消融实验(有无显式NVV控制): 对比了Gemini 2.5 Pro(提示式)和ElevenLabs(标签式)在有无NVV指令下的输出。 主观结果:ElevenLabs在启用NVV后,自然度、质量和表达力均提升(CMOS为正)。Gemini 2.5 Pro在启用NVV后,表达力提升不明显,且自然度和质量有所下降(CMOS为负)。 客观结果:启用NVV后,所有系统的WER/CER均上升,表明标准ASR和质量评估器对NVV不友好。 LLM评判 vs 人类评判:LLM评判的排名趋势与人类主观测试大体一致(如ElevenLabs在标签式中领先),但具体分数存在差异,表明LLM评估可作为有效补充但不能完全替代人类。 ⚖️ 评分理由 创新性:7/10。创新性主要体现在系统工程和评估框架上:构建了首个全面的NVV分类与数据集,并设计了多轴评估协议。这不是算法模型的突破,而是领域基础设施的重要创新。 实验充分性:9/10。实验设计极为充分。数据集构建流程严谨;评估维度全面(客观、主观、LLM);对比系统数量多、种类全(15个);分析深入,包含消融、热图、跨语言对比等。数据详实,结论可信。 实用价值:8/10。对语音合成领域有很高的实用价值。为NVV合成这一模糊的评估目标提供了清晰、可操作的度量标准,能直接指导系统开发和比较。开源数据集和代码进一步放大了其价值。 灌水程度:2/10。论文内容紧凑,直指问题核心。摘要、方法、实验、分析环环相扣,没有明显的冗余内容或夸大表述。所有承诺的评估都在实验部分得到落实。 🔗 开源详情 代码:已开源。论文提供了GitHub链接:https://github.com/lmxue/NVBench。代码应包含数据集构建脚本、评估指标计算代码等。 模型权重:不适用。本文不发布新模型,而是评估现有模型。 数据集:已开源。论文明确指出数据集可通过项目主页获取:https://lmxue.github.io/NVBench/。包含4500个(英汉各2250)经过验证的NVV实例。 预训练权重:不适用。 在线 Demo:论文中未提及在线Demo。 引用的开源项目:论文评估了多个开源TTS系统(如ChatTTS, Bark, CosyVoice 2等),并使用了Whisper、CLAP、DNSMOS等开源工具进行评估。 🖼️ 图片与表格 图1: NVBench概览图 | 保留: 是 - 理由:清晰展示了基准的整体流程,包括数据集(分类法+双语集)、两种控制方式(提示式、标签式)、待测TTS系统、以及多轴评估协议(客观、主观、LLM),是理解论文工作的核心示意图。 图2: 按NVV类型划分的感知效果热图(英语) | 保留: 是 - 理由:直观展示了不同系统在45类NVV上的感知效果(PE)得分,清晰揭示了系统间差异、类型难度差异(如笑声易、口腔音难)以及标签式系统的覆盖度缺口,是核心结果图。 图3: 按NVV类型划分的感知效果热图(中文) | 保留: 是 - 理由:与图2对应,展示了中文评估结果,体现了基准的双语评估能力和跨语言发现的一致性。 表1: NVV分类体系 | 保留: 是 - 理由:列出了完整的45类NVV及其所属的6个大类,是本文的核心贡献之一,必须保留以明确评估范围。 表2: 评测的TTS系统及数据集详情 | ���留: 是 - 理由:详细列出了15个被测系统和6个参考数据集支持的NVV类型及数量,是理解评测范围和对比基线的关键信息。 表3: 客观指标结果 | 保留: 是 - 理由:提供了所有系统在WER/CER、DNSMOS、CLAP、覆盖率、精确率/召回率/F1、NTD等客观指标上的详细数值,是进行量化对比的基础。 表4: 主观听测结果(均值±标准差) | 保留: 是 - 理由:提供了所有系统在自然度、质量、NVV感知效果等主观指标上的详细评分,是评估系统实际听感的关键数据。 表5: LLM多评判员评估结果(与ElevenLabs的对比分数) | 保留: 是 - 理由:展示了使用LLM作为评判员的评估结果,体现了这种新型评估方法的可行性与趋势,是方法的重要组成部分。 表6: 有无NVV控制的CMOS对比结果 | 保留: 是 - 理由:展示了消融实验的结果,直接证明了显式NVV控制对感知质量的影响,支持了论文的核心发现之一(控制范式差异)。 📸 论文图片 ...

2026-04-22

Qwen3.5-Omni Technical Report

📄 Qwen3.5-Omni Technical Report #语音合成 #语音识别 #音频大模型 #预训练 #强化学习 🔥 评分:9.5/10 | arxiv 👥 作者与机构 论文作者:Qwen Team (通义千问团队) 核心贡献者:Bing Han, Baosong Yang, Bin Zhang, Bo Zheng, Dayiheng Liu, Fan Zhou, Hongkun Hao, Hangrui Hu, Jin Xu, Jianxin Yang, Jingren Zhou, Keqin Chen, Le Yu, Mingkun Yang, Peng Wang, Pei Zhang, Qize Yang, Rui Men, Ruiyang Xu, Shuai Bai, Sibo Song, Ting He, Xize Cheng, Xuejing Liu, Xingzhang Ren, Xian Shi, Xiong Wang, Xinyu Zhang, Xinfa Zhu, Yunfei Chu, Yuanjun Lv, Yuchong Sun, Yongqi Wang, Yuxuan Wang, Yang Zhang, Zhifang Guo, Zishan Guo, Ziyang Ma 等(按字母顺序排列,*表示通讯作者) 所属机构:根据作者姓名和项目背景推断,主要来自阿里巴巴达摩院(DAMO Academy) 和阿里云。论文未明确标注机构,但“Qwen Team”和“Alibaba Cloud”是明确的线索。 💡 毒舌点评 亮点:这是一份堪称“全模态大模型工程教科书”的技术报告,从架构设计(混合MoE、ARIA)、训练策略(三阶段预训练、四阶段后训练)到评测体系(215个任务)都展现了无与伦比的系统性和工程实力,性能直接对标并超越了Gemini Pro,证明了中国团队在顶级多模态竞赛中的硬实力。 槽点:论文读起来像一份极其详尽的“产品说明书”和“实验报告”,技术细节虽多,但对于“为什么这样设计”的深层科学原理探讨略显不足,更像是在展示“我们做到了”,而非完全解释“我们为何能以及如何想到的”。此外,不开源核心代码和模型,让学术社区只能“望API兴叹”。 ...

2026-04-22

Text-To-Speech with Chain-of-Details: modeling temporal dynamics in speech generation

📄 Text-To-Speech with Chain-of-Details: modeling temporal dynamics in speech generation #语音合成 #生成模型 #端到端 #基准测试 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Jianbo Ma (Canva research, 工作在Dolby完成) 通讯作者:Jianbo Ma (Canva research), Richard Cartwright (Canva research) 其他作者:Richard Cartwright (Canva research, 工作在Dolby完成) 💡 毒舌点评 亮点是把图像生成VAR模型“先画轮廓再填细节”的聪明思路,成功搬到了语音合成上,让模型学会了“先搭时间骨架再填声学血肉”,思路优雅且有效。槽点是实验部分虽然扎实,但总感觉规模(数据、模型变体)还可以再大一些,让这个“由粗到细”的故事讲得更震撼;另外,创新深度上更像是对现有技术(掩码生成、多阶段)的精巧组合与适配,而非开辟全新范式。 📌 核心摘要 本文针对文本转语音(TTS)任务,提出了一种名为“细节链”(Chain-of-Details, CoD)的新框架。要解决的问题是现有TTS方法在建模语音生成的时域动态(从粗略时序到精细声学细节的渐进过程)方面存在不足。使用的方法是将语音生成分解为多个时间分辨率递增的阶段,在每个阶段使用掩码生成建模,并通过一个共享的Transformer解码器来预测该分辨率下的语音令牌。取得的效果是在LibriSpeech和SeedTTS测试集上,CoD模型(特别是Base版本)以显著更少的参数(263M)实现了优于或可比多个强基线(如KD-NARSIS, StyleTTS 2, VALL-E)的词错率(WER),证明了其参数效率和生成质量。消融实验进一步验证了多时间层级建模的有效性。局限性在于实验主要集中在英文单 speaker 场景,且创新本质是现有范式的有效扩展而非根本性变革。 🏗️ 模型架构 CoD-TTS的整体架构是一个两阶段系统,核心创新在第二阶段。 第一阶段:音频令牌化 输入:原始波形。 组件:音频编码器 + 量化器(采用DAC的RVQ结构,9个码本,86.13 Hz令牌率)。 输出:离散的声学令牌序列(对应最高时间分辨率,即Level 3)。 关键设计:为构建CoD所需的多时间分辨率,论文探索了两种策略: 降采样法:对第一层RVQ令牌进行降采样(如2倍、4倍降采样),得到更低时间分辨率的令牌(Level 2, Level 1)。 分层训练法:在RVQ基础上增加额外的量化器,每个新量化器编码前一级表示降采样后的残差,从而显式建模时间层级。 第二阶段:多阶段掩码生成(CoD核心) 输入与条件: 文本 -> G2P模型 -> 音素序列。 音素序列 -> 轻量级时长预测器(6层Transformer,隐藏维度256) -> 估计的语音时长(秒)。 参考音频 -> 预训练说话人编码器(Wespeaker) -> 说话人嵌入。 核心生成流程(以3个时间层级为例): Level 1(最粗,低时间分辨率): 初始化:生成一个全为[MASK]的令牌序列,长度由估计时长决定。 条件:音素序列、说话人嵌入。 处理:将[MASK]序列和条件输入共享的双向Transformer解码器。通过迭代去掩码过程(遵循MaskGIT的调度策略,共20步),预测出Level 1的语音令牌序列X1。 Level 2(中等时间分辨率): 初始化:将X1上采样(复制)到更高的时间分辨率,作为初始令牌序列,并再次进行掩码。 条件:音素序列、说话人嵌入、前一级输出X1。 处理:使用同一个Transformer解码器,再次通过20步迭代去掩码,预测出Level 2的令牌序列X2。 Level 3(最细,原始声学分辨率): 初始化:将X2上采样并掩码。 条件:音素序列、说话人嵌入、前一级输出X2。 处理:同样使用同一个解码器,通过20步迭代,预测出最终的Level 3声学令牌序列X3。 输出:最终的X3声学令牌序列送入预训练的RVQ解码器(如DAC解码器),还原为连续波形。 关键设计选择: 共享解码器:所有时间层级使用同一个Transformer解码器,通过条件输入(特别是前一级令牌X_{l-1})来区分当前任务,极大提高了参数效率。 非自回归并行生成:每个层级内的令牌预测是并行进行的,推理速度快。 条件增强:训练时,对前一级条件X_{l-1}进行10%的随机令牌替换,以增强模型鲁棒性。 💡 核心创新点 时域粗到细建模框架(CoD):是什么:首次明确将“由粗到细”的生成范式从语义/声学令牌空间扩展到时间维度,将语音生成分解为多个时间分辨率递增的阶段。之前方法:多阶段模型(如SPEAR-TTS, MaskGCT)主要在语义令牌和不同RVQ层的声学令牌间进行“粗到细”转换,未显式建模时间尺度的渐进细化。如何解决:通过设计Level 1/2/3,让模型先学习全局时序结构,再逐步填充局部声学细节,更符合语音生成的物理和认知过程。效果:消融实验(Table IV)显示,使用3个层级(WER 3.78%)显著优于2个层级(4.00%)和单层级(4.64%)。 统一共享的解码器架构:是什么:所有时间层级的掩码预测任务共享同一个Transformer解码器模型参数。之前方法:不同阶段的模型通常是独立的(如MaskGCT的三阶段模型)。如何解决:通过将前一级输出作为当前级的条件输入,使单一模型能够处理不同分辨率的预测任务。效果:实现了极高的参数效率(CoD-Base 263M参数),在性能相当的情况下,参数量远低于VALL-E(370M)和MaskGCT(1B)。 最低层级的自然音素规划:是什么:实验观察到,在最粗的时间层级(Level 1),模型在没有显式音素时长预测器精细指导的情况下,能够自然地进行音素级别的时序规划。之前方法:传统TTS或两阶段模型通常依赖一个独立的、显式的音素时长预测器来控制节奏。如何解决:CoD框架中,Level 1的生成目标本身就是粗粒度的时间令牌,模型在学习从文本条件生成这些令牌的过程中,内化了音素时长的分配能力。效果:简化了系统设计,表明显式的时域建模可以隐式地解决时序对齐问题。 🔬 细节详述 训练数据: 主要数据集:LibriTTS-clean(245小时)用于Base模型;LibriTTS-clean + MLS-English-Clean子集(共3297小时)用于Large模型。 数据预处理:对MLS数据进行了严格筛选(SNR > 55dB, C50 > 55),使用Brouhaha库估计这些指标。所有音频采样率为44.1kHz。 损失函数: 核心损失:掩码令牌预测的负对数似然损失(公式1)。 具体形式:对于层级 l,损失为 -E[∑ log pθ(x_i^l | X'_l, X_{l-1}, C)],其中求和仅针对被掩码的位置。对于第一层(l=1),条件中不包含X_{l-1}。 训练策略: 优化器:AdamW(β1=0.9, β2=0.95, 权重衰减0.05)。 学习率:1e-4,使用余弦调度器,包含4000步warm-up。 批次大小:256。 训练步数:所有模型训练400K步。 层级采样:训练时随机采样不同的时间层级,并偏向更高分辨率(如3层级时采样概率为[0.2, 0.3, 0.5])。 正则化:使用Classifier-Free Guidance (CFG),在10%的样本中随机丢弃条件(文本和前一级令牌),用可学习嵌入替代。 关键超参数: 推理步数:每个时间层级使用20步迭代去掩码。 CFG尺度:推理时,引导尺度从3.0线性下降到0.75。 多样性注入:在解码过程中,向logits添加均值为0、方差从3.0线性下降到0的高斯噪声。 训练硬件:论文未明确说明。 推理细节:遵循MaskGIT的采样方法,基于预测令牌的置信度概率进行迭代修正。 📊 实验结果 主要指标对比表(LibriSpeech Test-Clean, WER ↓) ...

2026-04-22

MINT-Bench: A Comprehensive Multilingual Benchmark for Instruction-Following Text-to-Speech

📄 MINT-Bench: A Comprehensive Multilingual Benchmark for Instruction-Following Text-to-Speech #语音合成 #基准测试 #多语言 #模型评估 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Huakang Chen (陈华康)(西北工业大学,音频、语音与语言处理实验室,ASLP@NPU) 通讯作者:Lei Xie (谢磊)(西北工业大学,音频、语音与语言处理实验室,ASLP@NPU) 其他作者: Jingbin Hu (胡景斌)(西北工业大学,ASLP@NPU) Liumeng Xue (薛刘猛)(南京大学,智能科学与技术学院) Qirui Zhan (詹启瑞)(西北工业大学,ASLP@NPU) Wenhao Li (李文浩)(西北工业大学,ASLP@NPU) Guobin Ma (马国斌)(西北工业大学,ASLP@NPU) Hanke Xie (谢涵科)(西北工业大学,ASLP@NPU) Dake Guo (郭大可)(西北工业大学,ASLP@NPU) Linhan Ma (马林汉)(西北工业大学,ASLP@NPU) Yuepeng Jiang (蒋月鹏)(西北工业大学,ASLP@NPU) Bengu Wu (吴本固)(宇图智能,北京) Pengyuan Xie (谢鹏远)(灵光乍现科技,上海) Chuan Xie (谢川)(灵光乍现科技,上海) Qiang Zhang (张强)(灵光乍现科技,上海) 💡 毒舌点评 亮点:这篇论文精准地戳中了指令跟随TTS领域的“阿喀琉斯之踵”——评估。它不像某些工作那样“造轮子”,而是“造尺子”,并且是一把设计精巧、刻度分明、还能换着语言用的“多功能智能尺”。其分层分类和诊断性评估的思路,为混乱的评估现状带来了急需的秩序。 槽点:尺子本身好不好用,很大程度上依赖于“持尺人”(即评估器Gemini)。虽然论文做了人类一致性验证,但将评估标准很大程度上托付给一个商业黑盒API,总让人感觉根基不够稳固,未来可能需要更开放、可复现的评估模型。 📌 核心摘要 这篇论文旨在解决指令跟随文本转语音(TTS)领域缺乏系统化评估工具的问题。当前评估存在覆盖不全、诊断粒度粗、多语言支持弱等缺陷。为此,作者提出了MINT-Bench,一个全面的多语言基准测试。其核心方法包括:1)一个基于10种原子声学属性的分层多轴分类法,系统性地组织了从简单到复杂(如组合、动态、角色扮演)及特殊(如非言语事件)的控制案例;2)一个三阶段数据构建流程(节点规范->结构化标签规划->指令-文本对生成),确保生成语义清晰、无属性泄露的测试用例;3)一个分层混合评估协议,依次评估内容一致性(基于ASR和WER)、指令跟随(基于大型音频语言模型判断)和感知质量/音色多样性。在十种语言上的实验表明,当前系统远未解决该问题:商业系统整体领先,但开源模型在中文等本地化场景中已具竞争力;内容保真度高不等于可控性强,复杂的组合和副语言控制仍是主要瓶颈。该工作为可控、多语言的语音生成研究提供了重要的诊断和评估基础。 ...

2026-04-21

AST: Adaptive, Seamless, and Training-Free Precise Speech Editing

📄 AST: Adaptive, Seamless, and Training-Free Precise Speech Editing #语音合成 #流匹配 #零样本 #数据集 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Sihan Lv(浙江大学,推断) 通讯作者:Meng Xi(浙江大学,推断) 其他作者:Yechen Jin(浙江大学,推断),Zhen Li(浙江大学,推断),Jintao Chen(浙江大学,推断),Jinshan Zhang(浙江大学,推断),Ying Li(浙江大学,推断),Jianwei Yin(浙江大学,推断),Meng Xi(浙江大学,推断) 机构说明:所有作者邮箱均为 @zju.edu.cn,论文未明确标注具体学院或实验室名称,根据致谢中的“Zhejiang Key Laboratory Project”可推断为浙江大学相关实验室。 💡 毒舌点评 把图像编辑里玩烂的潜空间反演(Latent Inversion)搬到语音流匹配模型上,再缝个动态“弱事实引导”当创可贴,居然就把一群专门训练过的语音编辑模型按在地上摩擦——这恰恰说明语音领域在TTS模型免训练适配上的思路有多贫瘠。不过槽点也很明显:WER相比基座IndexTTS-2不降反升(2.43% vs 2.91%),说明为了保住未编辑区域的“原汁原味”,编辑区域的文本准确性还是被献祭了一点;而且LibriSpeech-Edit数据集靠Qwen3-8B生成目标文本,编辑质量全看大模型脸色,可靠性存疑。 📌 核心摘要 本文针对现有语音编辑方法依赖任务特定训练、未编辑区域时间一致性差的问题,提出了AST(Adaptive, Seamless, and Training-free),一种基于预训练AM-FM(自回归-流匹配)范式TTS模型的精确语音编辑框架。AST首先通过逆Euler ODE求解器将原始语音反演至潜空间,然后利用最长公共子序列(LCS)进行词级对齐,将未编辑区域的反演潜流与编辑区域的高斯噪声进行潜变量重组(Latent Recomposition)。为防止拼接边界出现伪影,论文提出了自适应弱事实引导(AWFG),根据当前潜流与原始反演流的偏差动态加权mel空间引导信号。此外,AST天然支持局部风格编辑(如情感、方言)。为填补公开基准空白,论文还发布了LibriSpeech-Edit数据集(2000条,3.6小时)和词级动态时间规整指标(WDTW)。实验表明,AST在说话人相似度(0.986)和时间一致性(WDTW 0.2025)上达到SOTA,WER比专门训练的基线降低近70%,且无需任何额外训练。 🏗️ 模型架构 AST的整体架构是一个免训练的推理框架,依附于一个预训练的AM-FM(Autoregressive Model-Flow Matching)TTS模型(论文使用IndexTTS-2)。其核心不是重新设计网络层,而是在已有模型的潜空间中进行“手术刀式”干预。完整输入输出流程如下: 输入:原始mel-谱图 $m_{\mathrm{ori}}$、原始转录 $y_{\mathrm{ori}}$、目标转录 $y_{\mathrm{tgt}}$、声学提示 $m_{\mathrm{ref}}$。 阶段一:潜空间反演(Latent Inversion) 利用AM-FM解码器的ODE可逆性,将原始语音“倒推”回噪声空间。流匹配的前向过程由ODE定义: $$\frac{dx(t)}{dt}=v_{\phi}\left(x(t);\mu,m_{\mathrm{ref}}\right), \quad t\in[0,1]$$ 其中 $v_\phi$ 是DiT(Diffusion Transformer)参数化的速度场,$\mu$ 是自回归模型生成的语义条件。反演时,采用逆Euler ODE求解器,在假设小步长内速度场近似恒定的前提下,将 $x_{\mathrm{ori}}(1)=m_{\mathrm{ori}}$ 逐步逆推至 $x_{\mathrm{ori}}(0)$: $$x(t-\Delta t)=x(t)-\Delta t\cdot v_{\phi}\left(x(t);\mu_{\mathrm{ori}},m_{\mathrm{ref}}\right)$$ 与此同时,目标文本 $y_{\mathrm{tgt}}$ 通过自回归模型生成语义条件 $\mu_{\mathrm{tgt}}$,并以标准高斯噪声 $x_{\mathrm{tgt}}(0)\sim\mathcal{N}(0,I)$ 为起点,通过前向Euler步进,生成完整的目标mel谱 $m_{\mathrm{tgt}}$。 ...

2026-04-20

Hierarchical Codec Diffusion for Video-to-Speech Generation

📄 Hierarchical Codec Diffusion for Video-to-Speech Generation #语音合成 #扩散模型 #多模态模型 #零样本 #跨模态 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Jiaxin Ye(Fudan University) 通讯作者:Hongming Shan(Fudan University,hmshan@fudan.edu.cn) 其他作者: Gaoxiang Cong(Institute of Computing Technology, Chinese Academy of Sciences;University of Chinese Academy of Sciences) Chenhui Wang(Fudan University) Xin-Cheng Wen(Harbin Institute of Technology (Shenzhen)) Zhaoyang Li(Fudan University) Boyuan Cao(Fudan University) 💡 毒舌点评 亮点:这篇论文像个严谨的“交通协管员”,终于把 RVQ 不同层级当成了不同的车道——让嘴唇和身份去底层飙内容,让表情去高层管情绪,治好了 VTS 领域长期存在的“视觉条件瞎注入”的拥堵病。 槽点:虽然口口声声“首个”层次化离散扩散,但骨子里是 SEDD + MaskGCT Codec + DiT AdaLN 的“学术拼好饭”;更妙的是训练时偷偷用真实音频的 GE2E 特征来 stabilize 模型,推理时却只能看脸硬撑,这算不算一种“开卷考试练出的学霸”? ...

2026-04-20

PS-TTS: Phonetic Synchronization in Text-to-Speech for Achieving Natural Automated Dubbing

📄 PS-TTS: Phonetic Synchronization in Text-to-Speech for Achieving Natural Automated Dubbing #语音合成 #音视频 #动态时间规整 #大语言模型 #多语言 ✅ 评分:6.0/10 | arxiv 👥 作者与机构 第一作者:Changi Hong(根据姓名顺序和论文常规推断) 通讯作者:Hong Kook Kim(根据论文常规,资深作者通常为通讯作者) 其他作者:Yoonah Song, Yoonah Song, Chaewoon Bang, Dayeon Gu, Do Hyun Lee 机构信息:论文摘要未提供明确的机构信息。根据arXiv常见模式和作者姓名,推断他们可能来自韩国某大学或研究机构(如光云大学等,因作者姓名为韩文)。具体实验室/课题组级别信息未在摘要中给出。 💡 毒舌点评 亮点:把配音的“对口型”难题,用DTW和音素距离这种信号处理+语音学的经典组合拳来解,思路清晰且工程上有效,比纯端到端黑箱更可解释。槽点:实验数据规模听起来不大(几个数据集),且在多语言实验中声称“表现最佳”却未与专门的多语言配音SOTA对比,有点“关起门来当第一”的味道。 📌 核心摘要 这篇论文旨在解决自动配音(AD)中目标语音与源语音在时长和唇形上的同步难题。其核心贡献是提出了一套两阶段的文本改写方法,并集成到TTS系统中:首先通过语言模型进行等时性改写,确保目标语音时长匹配源语音;其次引入音素同步(PS),使用动态时间规整(DTW)和从训练数据中学习的元音距离,使目标文本的元音发音尽可能接近源语音元音,以提升唇形同步效果。进一步地,论文提出了PSComet,在音素相似性的基础上联合考虑语义相似性,以更好地保留原文含义。实验表明,该方法(PS-TTS和PS-Comet TTS)在韩-英、英-韩的唇读数据集和配音演员数据集上,多项客观指标优于无PS的TTS,并在某些指标上超越人类配音演员。跨语言实验(涉及法语)也验证了PSComet在平衡唇形同步与语义保留方面的优越性。该工作为提升自动配音的自然度和观感提供了实用且可解释的技术路径,但其效果高度依赖于源-目标语言对的音素映射质量和训练数据。 🏗️ 模型架构 PS-TTS系统是一个流程化的管线,而非单一的端到端模型。其整体流程如下: 输入:源视频(含源语音)和翻译后的目标语文本。 第一阶段:等时性文本改写 组件:一个预训练的语言模型(LM),如T5或BART。 功能:接收翻译文本,并在不改变其核心语义的前提下,通过增删、替换词汇或调整句式,生成一个新版本的目标文本,使得该文本用目标语言TTS系统合成的语音时长,与源语音时长尽可能一致。 设计理由:直接控制时长是配音同步的基础,利用LM进行改写比规则方法更灵活自然。 第二阶段:音素同步(PS) 组件:动态时间规整(DTW)算法,其局部代价函数基于元音距离。 功能:对源语音和第一阶段输出的目标文本(已转为音素序列)进行对齐。对齐的依据不是文本本身,而是元音的声学或发音特征相似度。论文提到使用从训练数据中学习到的“元音距离”作为DTW的局部代价。这意味着,在改写时,算法倾向于选择那些发音与对应源语音元音更相似的目标语元音,从而在发音时嘴型更接近,提升唇形同步(lip-sync)效果。 扩展 - PSComet:在PS的基础上,引入一个名为Comet的模型(可能是一个多语言预训练模型),它能够同时计算语义相似度和音素相似度。PSComet在DTW对齐或文本选择时,综合权衡这两个因素,避免为了极致的唇形同步而严重扭曲语义。 输出:经过两阶段优化的目标语文本。 TTS合成:将优化后的文本输入标准的TTS系统(如基于VITS、FastSpeech2等),生成最终的目标语音。 整体数据流:源语音 + 翻译文本 -> LM(等时性改写) -> 中间文本 -> DTW+PSComet(音素/语义同步改写) -> 优化文本 -> TTS引擎 -> 目标语音。 💡 核心创新点 将配音同步问题解耦为文本改写问题:创新性地将复杂的音视频同步挑战,转化为对翻译后文本进行两阶段(时长、音素)改写的自然语言处理任务,使得问题更结构化、可解释。 基于音素距离的DTW对齐机制:不同于传统的基于文本或语义的对齐,本方法创新地使用目标语与源语元音之间的发音相似度作为DTW对齐的驱动力,直接针对“唇形”这一物理属性进行优化,是提升lip-sync的关键。 语义-音素联合优化的PSComet:认识到单纯追求音素同步可能损害语义,提出了PSComet框架,在目标文本选择时联合优化语义保真度和音素相似度,实现了两者间的更好平衡,这是对单纯PS方法的重要改进。 🔬 细节详述 训练数据: 用于学习“元音距离”的数据:论文提及使用“训练数据”,但未明确具体名称。推测是用于训练底层TTS系统的多语言语音-文本对齐数据,从中可以提取元音的声学特征(如MFCC、F0)或发音特征(如Vowel Space)来计算距离。 用于评估的数据集:Korean and English lip-reading datasets(可能指LRS2/LRS3等)、a voice-actor dubbing dataset(自建或特定数据集)、以及French数据用于跨语言测试。 损失函数:论文主要描述的是流程方法而非可端到端训练的模型,因此未明确提及统一的损失函数。各阶段目标独立:等时性阶段目标为时长匹配;PS阶段目标为最小化DTW总代价(即累积的元音距离);PSComet阶段目标为最大化语义与音素联合得分。 训练策略: 语言模型(LM):使用预训练模型进行微调或直接提示工程(Prompting)进行文本改写。 元音距离模型:可能使用一个简单的神经网络或度量学习方法,在语音数据上训练,以区分不同元音的发音。 TTS系统:使用现成的预训练TTS模型(如VITS),在目标语言数据上微调或直接使用。 关键超参数:DTW中语义相似度和音素相似度的权重(在PSComet中),用于平衡两者的重要性。论文中应通过实验确定最佳权重。 推理细节:推理过程是一个确定性的流程:输入源语音和文本,依次经过LM改写、DTW对齐与文本优化,最后送入TTS生成语音。无随机采样。 数据增强/正则化:未明确提及。可能依赖于预训练LM和TTS模型自身的能力。 📊 实验结果 主要指标对比: 论文指出,PS-TTS和PS-Comet TTS在多个客观指标上优于不使用PS的TTS基线。 在韩-英和英-韩配音中,系统在某些指标上超越了人类配音演员。但摘要未给出具体数值(如LSE-D, LSE-C, SyncScore等唇形同步指标,或MOS、MOSNet等语音质量指标)。 跨语言实验(含法语)中,PSComet在所有语言对中表现最佳,在唇形同步精度和语义保留之间取得了最佳平衡。 消融实验:摘要隐含了消融对比:TTS (无PS) vs PS-TTS vs PS-Comet TTS。结果表明,加入PS能提升同步性,而进一步加入语义约束(PSComet)能在保持或提升同步性的同时,获得更好的语义保留。 与SOTA方法的对比:未在摘要中体现。这是主要缺陷之一。 用户研究/主观评价:摘要未提及是否有MOS等主观评价实验。 ⚖️ 评分理由 创新性:6.5/10。将语音合成与唇形同步通过文本改写和音素对齐相结合的思路具有启发性,PSComet的联合优化也是有价值的改进。但核心组件(LM, DTW, TTS)均为成熟技术,创新在于巧妙的流程设计和组合。 实验充分性:6.0/10。实验设计了多语言、多数据集验证,并与人类对比,有一定说服力。但缺乏与领域内已有SOTA方法的直接对比,且未提供具体实验数据数字,削弱了结论的强度。数据规模未知。 实用价值:7.5/10。直接针对影视、视频本地化中的自动配音痛点,提出的流程清晰,有望直接集成到现有配音工作流中,实用导向明确。 灌水程度:3.0/10(越低越好)。论文问题聚焦,方法描述清晰,无明显的冗余内容或夸大表述。主要不足在于实验对比不够全面。 🔗 开源详情 论文摘要中未提及任何关于代码、模型权重、数据集或预训练权重的开源计划。因此,推断相关资源未开源。 ...

2026-04-20

An Ultra-Low Latency, End-to-End Streaming Speech Synthesis Architecture via Block-Wise Generation and Depth-Wise Codec Decoding

📄 An Ultra-Low Latency, End-to-End Streaming Speech Synthesis Architecture via Block-Wise Generation and Depth-Wise Codec Decoding #语音合成 #端到端 #流式处理 #实时处理 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Tianhui Su 通讯作者:Yannick Estève(推断,通常末位作者为通讯作者) 其他作者:Tien-Ping Tan, Salima Mdhaffar, Aghilas Sini 所属机构:论文摘要中未明确列出作者所属机构。根据论文类别(eess.AS)和作者姓名推测,可能来自法国某大学或研究机构的语音处理实验室,如利勒大学(Université de Lille)的计算机科学实验室(CRIStAL)或类似机构。(推断) 💡 毒舌点评 这篇论文的亮点在于它巧妙地“绕过”了传统语音合成中又慢又容易糊的神经声码器,直接去生成高度压缩的音频“密码本”(离散编码),从而实现了闪电般的合成速度,延迟低到人类几乎感觉不到。槽点嘛,就是论文对训练细节的描述有点“惜字如金”,比如具体用了多少数据、损失函数怎么加权的都没说清楚,这让想复现的同行们有点抓狂。 📌 核心摘要 这篇论文旨在解决实时交互式语音合成中推理延迟高与声学质量(尤其是高频细节)易受损的核心矛盾。传统流水线依赖计算密集的神经声码器进行波形重建,且基于连续回归的声学模型易导致频谱过平滑。为此,作者提出了一种端到端、非自回归的新架构。其核心方法是:直接建模Mimi神经音频编码器的离散潜在空间(32层残差向量量化,RVQ),并采用一种渐进式深度顺序解码策略。该架构以修改版的FastSpeech 2为主干,动态地自回归地生成这些离散编码码,避免了传统自回归模型的时序开销。实验在英语和马来语数据集上验证了其语言通用性。主要发现是,与传统的连续回归模型(FastSpeech 2 + HiFi-GAN)相比,该方法在基频准确性和高频频谱质量上均有提升,并实现了10.6倍的绝对加速,其首字节时间(TTFB)延迟仅为48.99毫秒,远低于人类感知阈值。这使其成为部署超低延迟流式语音交互界面的有力候选方案。 🏗️ 模型架构 该模型是一个完整的端到端文本到波形(Text-to-Waveform)流式合成系统,其核心流程如下: 输入:文本序列(字符或音素)。 文本编码与对齐:输入文本首先通过一个文本编码器(类似于FastSpeech 2)转换为隐层表示。该模块包含音素嵌入层、位置编码和多个Transformer块。关键点在于,它不直接预测连续的梅尔频谱,而是预测与后续离散编码生成相关的中间特征,如音素持续时间、基频(F0)和能量轮廓,用于控制合成语音的韵律。 渐进式深度顺序解码(核心创新): 这是模型的“解码器”部分,负责生成最终的音频表示。它不是一个传统的自回归波形生成器,而是一个非自回归但深度自回归的模块。 结构:该解码器由32个相同的层堆叠而成,每一层对应Mimi编码器中的一个RVQ层级。 工作流程:解码过程是顺序进行的。第1层首先生成第一层RVQ的离散码本索引序列。然后,第2层将第1层的输出(包括其码本嵌入)作为条件输入,生成第二层的码本索引。这个过程依次进行,直到第32层。每一层在生成时,只能“看到”之前所有层已经生成的离散编码信息,而不能看到未来的编码。这种“深度方向”的条件依赖,替代了传统自回归模型在“时间维度”上的依赖,从而实现了并行生成(在同一层内)的同时,保持了高质量表示建模的能力。 离散编码到波形:生成的32层RVQ码本索引序列被送入Mimi音频解码器(一个预训练的、固定的神经声码器),直接合成最终的音频波形。由于Mimi编码器本身具有极高的压缩率,且解码器是轻量级的,这一步非常快。 输出:最终的音频波形流。 关键设计理由: 为何用离散编码?:绕过传统声码器,避免其计算瓶颈和频谱过平滑问题。离散表示更易于非自回归模型建模。 为何用深度顺序解码?:直接并行生成32层离散编码极其困难(组合爆炸)。深度顺序解码将问题分解为32个更简单的子问题,每层只专注于建模当前量化层级的“细节残差”,在模型表达能力和计算复杂度之间取得了平衡。 为何是非自回归骨干?:FastSpeech 2式的非自回归设计(通过时长模型控制对齐)保证了推理速度和流式处理的可行性。 💡 核心创新点 直接建模神经音频编解码器的离散潜在空间: 是什么:模型的目标输出不是梅尔频谱或波形,而是Mimi编码器产生的32层残差向量量化(RVQ)码本索引。 之前的方法:传统方法(如FastSpeech 2)预测连续梅尔频谱,需依赖单独的神经声码器(如HiFi-GAN)合成波形,该声码器是延迟和计算的主要瓶颈,且连续回归易导致频谱模糊。 如何解决问题:通过直接生成离散编码,模型完全绕过了对密集神经声码器的需求,仅需一个轻量的、固定的解码器即可将离散码转换为波形,从根本上降低了延迟和计算量。离散表示也更适合非自回归生成。 效果:实现了10.6倍的加速和48.99毫秒的超低TTFB延迟。 渐进式深度顺序解码策略: ...

2026-04-19