DAIEN-TTS: Disentangled Audio Infilling for Environment-Aware Text-to-Speech Synthesis

📄 DAIEN-TTS: Disentangled Audio Infilling for Environment-Aware Text-to-Speech Synthesis #语音合成 #流匹配 #零样本 🔥 8.0/10 | 前25% | #语音合成 | #流匹配 | #零样本 学术质量 7.5/7 | 选题价值 6.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ye-Xin Lu(中国科学技术大学 国家语音与语言信息处理工程研究中心) 通讯作者:Yang Ai(中国科学技术大学 国家语音与语言信息处理工程研究中心) 作者列表:Ye-Xin Lu(中国科学技术大学 国家语音与语言信息处理工程研究中心)、Yu Gu(未说明)、Kun Wei(未说明)、Hui-Peng Du(中国科学技术大学 国家语音与语言信息处理工程研究中心)、Yang Ai(中国科学技术大学 国家语音与语言信息处理工程研究中心)、Zhen-Hua Ling(中国科学技术大学 国家语音与语言信息处理工程研究中心) 💡 毒舌点评 亮点在于将语音-环境分离与流匹配音频填充相结合,首次在零样本框架下实现了对时间变化背景环境的独立控制,思路清晰且实验验证充分。短板是高度依赖预训练的语音-环境分离(SES)模块的性能,且推理时要求提供“纯”环境提示音频的假设在真实场景中可能较难满足,限制了其通用性。 📌 核心摘要 问题:现有的零样本语音合成(TTS)系统难以在合成语音时,独立且可控地改变背景声学环境(如从安静房间切换到嘈杂街道),特别是对于时间变化的环境。 方法核心:本文提出DAIEN-TTS,一个基于解纠缠音频填充的环境感知零样本TTS框架。其核心是引入一个预训练的语音-环境分离(SES)模块,将带环境音的语音分解为干净语音和环境音频的梅尔谱。在训练时,对两者分别进行随机掩码,以干净语音谱、环境谱(部分掩码)和文本为条件,通过流匹配模型填充被掩码的完整环境语音梅尔谱。推理时,可使用任意说话人提示和任意环境提示进行合成。 创新点:a) 首次提出一个能独立控制音色和时间变化背景环境的零样本TTS框架。b) 设计了基于交叉注意力的环境条件注入方案,并在推理时采用双无分类器指导(DCFG)和信噪比(SNR)自适应策略来增强可控性。c) 实验表明该方法在自然度、说话人相似度和环境保真度上均表现良好。 主要实验结果:在SeedTTS测试集上,当使用静音环境提示时,DAIEN-TTS的词错率(WER)为1.93%,说话人相似度(SIM-o)为0.60,自然度(MOS)达3.84。当使用背景环境提示合成环境语音时,WER为2.83%,SIM-o为0.55,MOS为3.78,环境相似度(ESMOS)为3.65,均接近或达到人类录音水平。关键结果如下表所示(摘自论文Table 1): 模型 WER(%) ↓ SIM-o ↑ MOS ↑ SSMOS ↑ ESMOS ↑ 场景:静音环境提示 Human (上界) 2.14 0.73 3.91 3.72 - F5-TTS (Clean Spk. Prompt) 2.30 0.58 3.80 3.60 - F5-TTS (Env. Spk. Prompt) 2.87 0.49 3.09 2.92 - DAIEN-TTS 1.93 0.60 3.84 3.64 - 场景:背景环境提示 Human + Environment (上界) 2.80 0.70 3.86 3.81 3.72 DAIEN-TTS 2.83 0.55 3.78 3.73 3.65 实际意义:该技术为有声读物、虚拟现实、游戏等需要生成特定背景环境语音的场景提供了新的解决方案,增强了合成语音的表现力和沉浸感。 主要局限性:a) 框架性能严重依赖预训练SES模块的分离质量,若分离不佳会直接影响合成效果。b) 训练和评估均基于预设的“干净语音-环境音频”配对数据,对于现实世界中无法获得纯净环境音的复杂场景,其适用性有待验证。c) 推理时要求提供纯环境音频提示,这在实际应用中可能不便获取。 🏗️ 模型架构 DAIEN-TTS的整体架构如图1所示,包含训练(左)和推理(右)两个流程。 ...

2026-04-29

Deep Dubbing: End-to-End Auto-Audiobook System with Text-to-Timbre and Context-Aware Instruct-TTS

📄 Deep Dubbing: End-to-End Auto-Audiobook System with Text-to-Timbre and Context-Aware Instruct-TTS #语音合成 #流匹配 #端到端 #有声书生成 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #端到端 #有声书生成 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Ziqi Dai(北京建筑大学智能科学与技术学院,腾讯音乐娱乐Lyra实验室)† 通讯作者:Weifeng Zhao(腾讯音乐娱乐Lyra实验室)⋆, Ruohua Zhou(北京建筑大学智能科学与技术学院)⋆ 作者列表: Ziqi Dai†(北京建筑大学智能科学与技术学院,腾讯音乐娱乐Lyra实验室) Yiting Chen†(腾讯音乐娱乐Lyra实验室) Jiacheng Xu(腾讯音乐娱乐Lyra实验室) Liufei Xie(腾讯音乐娱乐Lyra实验室) Yuchen Wang(腾讯音乐娱乐Lyra实验室) Zhenchuan Yang(腾讯音乐娱乐Lyra实验室) Bingsong Bai(北京邮电大学) Yangsheng Gao(腾讯音乐娱乐Lyra实验室) Wenjiang Zhou(腾讯音乐娱乐Lyra实验室) Weifeng Zhao⋆(腾讯音乐娱乐Lyra实验室) Ruohua Zhou⋆(北京建筑大学智能科学与技术学院) 💡 毒舌点评 亮点:该工作将“为角色从文本生成声音”和“根据上下文生成情感语音”这两个有声书制作的关键环节进行了系统性建模,并提出了Text-to-Timbre (TTT) 这一新颖任务及其流匹配解决方案。短板:其“端到端”的声明略显模糊,因为核心的上下文理解与指令生成依赖于一个外部的大语言模型,这限制了系统真正的自动化程度和独立性。 ...

2026-04-29

Direct Preference Optimization For Speech Autoregressive Diffusion Models

📄 Direct Preference Optimization For Speech Autoregressive Diffusion Models #语音合成 #扩散模型 #偏好优化 #零样本 ✅ 7.5/10 | 前25% | #语音合成 | #扩散模型 | #偏好优化 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 中 👥 作者与机构 第一作者:Zhijun Liu(香港中文大学(深圳)SDS, SRIBD, SAI;字节跳动Seed) 通讯作者:Shuai Wang(南京大学智能科学与技术学院) 作者列表: Zhijun Liu(香港中文大学(深圳)SDS, SRIBD, SAI;字节跳动Seed) Dongya Jia(字节跳动Seed) Xiaoqiang Wang(字节跳动Seed) Chenpeng Du(字节跳动Seed) Shuai Wang(南京大学智能科学与技术学院;深圳湾区研究院) Zhuo Chen(字节跳动Seed) Haizhou Li(香港中文大学(深圳)SDS, SRIBD, SAI;深圳湾区研究院) 💡 毒舌点评 亮点在于首次成功将DPO“移植”到语音自回归扩散模型上,用实验证明了其能显著提升表达力(F0方差翻倍)和鲁棒性(CER降25%),开辟了ARDM后训练的新路径。短板则在于对训练过程中“winning/losing样本扩散损失双升”这一反常现象缺乏理论解释,且开源信息仅限音频示例,核心代码与模型未公开,影响了工作的可复现性和影响力。 📌 核心摘要 问题:当前基于自回归扩散模型(ARDM)的零样本TTS虽性能领先,但生成的语音常与人类偏好不对齐,例如在给定情感提示时仍可能产出单调的语音,缺乏表达力且在处理长难句时鲁棒性不足。 方法核心:提出ARDM-DPO,一种专为语音ARDM设计的直接偏好优化方法。它将DPO从离散LLM或通用扩散模型扩展到连续Token的自回归扩散框架中,推导了适用于v-prediction(如DiTAR模型)的训练目标函数。 新意:这是首个针对TTS领域ARDM的偏好对齐方法。它无需训练独立的奖励模型,而是直接利用偏好数据微调模型,使模型输出分布向人类偏好的样本偏移。 实验结果:在DiTAR基座模型上进行实验。任务A(提升表达力):ARDM-DPO将F0方差从14.2 Hz提升至29.2 Hz(近翻倍),同时说话人相似度(SIM)仅从0.770微降至0.765,WER从5.17%降至3.73%。任务B(提升鲁棒性):在复杂文本测试集上,CER从8.37%降至6.32%(降幅25%)。主观评估显示,任务A中表达力获显著提升,任务B中自然度和说话人相似度得以保持。主要结果见表1和表2。 表1:任务A(提升F0方差)部分结果 ...

2026-04-29

Discrete Diffusion for Generative Modeling of Text-Aligned Speech Tokens

📄 Discrete Diffusion for Generative Modeling of Text-Aligned Speech Tokens #语音合成 #扩散模型 #自回归模型 #语音表示 ✅ 7.5/10 | 前25% | #语音合成 | #扩散模型 | #自回归模型 #语音表示 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Pin-Jui Ku(NVIDIA;Georgia Institute of Technology) 通讯作者:未说明 作者列表:Pin-Jui Ku(NVIDIA;Georgia Institute of Technology),He Huang(NVIDIA),Jean-Marie Lemercier(NVIDIA),Subham Sekhar Sahoo(NVIDIA;Cornell Tech),Zhehuai Chen(NVIDIA),Ante Jukić(NVIDIA) 💡 毒舌点评 亮点:论文将新兴的离散扩散模型系统性地应用于语音token重建,并提供了迄今最全面的实证分析,结论(如FSQ优于RVQ、Conf-TopK采样更佳)对后续相关工作有直接的工程指导价值。短板:论文主要贡献是“应用与分析”,而非提出基础理论或解决语音token化中的核心难题(如语义与声学信息的完美解耦),且未探讨其方法对下游语音大模型(如TTS、ASR)性能的影响,使其深度和影响力受限。 📌 核心摘要 要解决什么问题:现有的TASTE语音token化框架依赖自回归(AR)解码器来重建语音,这导致推理速度慢,且重建质量可能非最优。 方法核心是什么:提出用离散扩散模型(DDM)替代TASTE中的AR解码器。模型在推理时,通过迭代去噪(从全掩码到逐步揭示)来并行预测S3 token序列,再由vocoder生成波形。 与已有方法相比新在哪里:首次在TASTE框架中系统性地应用并分析DDM。与AR解码器相比,DDM解码具有并行性,且质量更高。同时,论文系统比较了向量量化方案(RVQ vs. FSQ),发现FSQ能显著提升性能。 主要实验结果如何:在LibriSpeech数据集上,DDM解码器相比AR基线实现了3.3倍的推理速度提升(测试集1.65秒 vs. 5.48秒)。使用RVQ量化时,DDM的WER比AR降低35%(测试集:5.10% vs. 7.60%),UT-MOS提升0.45(4.27 vs. 3.82)。使用FSQ量化后,性能进一步提升,AR模型的WER相对降低35%,UT-MOS提升0.14。DDM模型在10步推理时即可达到峰值性能,甚至单步推理也基本可用。关键实验结果对比如下表: 模型 量化方式 测试集 WER (%) ↓ UT-MOS ↑ AR基线 4L-RVQ test-clean 7.60 3.82 本文DDM 4L-RVQ test-clean 5.10 4.27 本文DDM 4L-FSQ test-clean 4.00 4.30 本文DDM 10步 test-clean 3.70 4.28 本文DDM 单步 test-clean 5.14 3.81 实际意义是什么:为语音token化中的高效、高质量解码提供了一个优于自回归范式的新方案,展示了离散扩散模型在条件生成任务中的潜力,并提供了工程实践上的具体指导(如采样器选择、步数设置)。 主要局限性是什么:模型性能严重依赖一个外部长度预测器来估计S3 token序列长度;论文未验证该改进的语音表示对下游语音大模型(如端到端TTS、ASR)的具体增益;其优势建立在强条件(文本+TASTE embedding)上,对于无条件或弱条件生成任务的普适性未探讨。 🏗️ 模型架构 本文模型架构建立在TASTE框架之上,包含两个主要部分:TASTE Tokenizer和解码器(AR或DDM)。整体流程如图1所示。 ...

2026-04-29

DMP-TTS: Disentangled Multi-Modal Prompting for Controllable Text-to-Speech with Chained Guidance

📄 DMP-TTS: Disentangled Multi-Modal Prompting for Controllable Text-to-Speech with Chained Guidance #语音合成 #扩散模型 #可控语音 #对比学习 #多任务学习 ✅ 7.5/10 | 前25% | #语音合成 | #扩散模型 | #可控语音 #对比学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Kang Yin(中国科学技术大学),Chunyu Qiang(快手科技) (论文标注†表示同等贡献,故两位均为第一作者) 通讯作者:Sirui Zhao(中国科学技术大学),Tong Xu(中国科学技术大学),Chen Zhang(快手科技) (论文标注*表示通讯作者) 作者列表: Kang Yin(中国科学技术大学) Chunyu Qiang(快手科技) Sirui Zhao(中国科学技术大学) Xiaopeng Wang(快手科技) Yuzhe Liang(快手科技) Pengfei Cai(中国科学技术大学) Tong Xu(中国科学技术大学) Chen Zhang(快手科技) Enhong Chen(中国科学技术大学) 💡 毒舌点评 本文的亮点在于将风格编码、解耦训练和引导推理整合成了一套逻辑自洽且实用的方案,Style-CLAP的多任务设计和cCFG的层级控制思路清晰有效,实验数据扎实,切实推动了可控TTS在解耦方向上的进步。然而,其创新更多是“优秀的组合”而非“从零的突破”,且说话人相似度这一关键指标不及部分基线,暴露出在追求强风格表达时维持音色一致性仍是未完全攻克的难题。 ...

2026-04-29

Do You Hear What I Mean? Quantifying the Instruction-Perception GAP in Instruction-Guided Expressive Text-to-Speech Systems

📄 Do You Hear What I Mean? Quantifying the Instruction-Perception GAP in Instruction-Guided Expressive Text-to-Speech Systems #语音合成 #模型评估 #数据集 #语音情感识别 #人类感知评估 🔥 8.0/10 | 前25% | #语音合成 | #模型评估 | #数据集 #语音情感识别 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yi-Cheng Lin(National Taiwan University) 通讯作者:未说明 作者列表:Yi-Cheng Lin(National Taiwan University)、Huang-Cheng Chou(University of Southern California)、Tzu-Chieh Wei(University of Michigan)、Kuan-Yu Chen(National Taiwan University)、Hung-yi Lee(National Taiwan University) 💡 毒舌点评 亮点在于精准定义了指令引导TTS领域一个被忽视的关键问题——“指令-感知鸿沟”,并首次系统性地引入了程度副词和情感强度形容词这两个细粒度维度进行量化评估,为未来研究提供了明确的改进靶点和高质量的基准数据集(E-VOC)。短板是,虽然评估框架设计精巧,但论文在分析环节更侧重于现象描述(如“模型倾向于生成成人声音”),对于导致这些现象的模型架构差异、训练数据偏差等深层原因挖掘不足,使得结论的启发性略打折扣。 📌 核心摘要 要解决什么问题:当前指令引导的文本转语音(ITTS)系统虽允许用户通过自然语言控制语音风格,但用户指令与听众感知之间的实际对齐程度,尤其是对细粒度属性(如不同强度的情感、不同年龄的声音)的控制能力,尚未被系统性量化研究,存在一个“指令-感知鸿沟”。 方法核心:本文提出了一个全新的评估框架,首次引入“程度副词”(如 slightly, extremely)和“情感强度形容词”(如 Content, Happy, Ecstatic)作为控制维度,结合传统的说话人年龄和词汇重音控制任务,对ITTS系统进行综合评估。为此,他们构建了一个名为E-VOC(Expressive VOice Control)的大规模人类评估数据集,包含超过60,000个人类评分。 与已有方法相比新在哪里:不同于以往研究仅使用粗粒度的情感或风格标签(如“快乐”),或依赖自动分类器进行客观评估,本工作首次在人类感知评估中纳入了连续、分级的表达属性(程度和情感强度),并通过大规模众包获得了可靠的人类感知基准,更直接地反映了用户意图与最终感知的差异。 主要实验结果如何:评估了5个代表性ITTS系统。结果显示:(1) gpt-4o-mini-tts是唯一能在响度、音高、语速和情感强度上可靠遵循程度指令并产生可感知梯度变化的模型。(2) 所有模型在控制说话人年龄方面表现均不佳(最佳准确率仅29.4%),且普遍倾向于生成“成人”声音,即使指令要求“儿童”或“老人”声音。(3) 词汇重音控制极具挑战性,最佳模型(gpt-4o)的准确率也仅为26.5%。具体关键数据见下表。 任务 模型 关键指标(数值) 说话人年龄 (Age) 总体准确率 (最高) 0.294 (Parler-large) 总体准确率 (gpt-4o) 0.289 F1-score (Child, 最高) 0.113 (Parler-large) F1-score (Elderly, 最高) 0.339 (UniAudio) 词汇重音 (Emphasis) 总体准确率 (最高) 0.265 (gpt-4o) 总体准确率 (随机基线) ≈0.143 实际意义是什么:本工作为ITTS系统的评估和开发建立了新的、更贴近真实用户需求的基准。E-VOC数据集的公开将极大推动该领域在细粒度控制、人类感知对齐等方面的研究,并为开发更可靠的自动评估工具提供了训练数据。 主要局限性是:研究仅评估了5个模型,结论的普适性需验证;论文未对导致“指令-感知鸿沟”的具体模型架构或训练因素进行深入分析;评估仅限英语,未涉及多语言场景。 🏗️ 模型架构 论文中未提供具体的模型架构图或详细描述。本文的核心贡献是评估框架、数据集和分析方法,而非提出一个新的TTS模型。文中所评估的ITTS系统(如Parler-TTS, PromptTTS++, gpt-4o-mini-tts)均为已有系统,论文重点在于评估它们在新维度上的表现,而非剖析其内部架构。 ...

2026-04-29

ECSA: Dual-Branch Emotion Compensation for Emotion-Consistent Speaker Anonymization

📄 ECSA: Dual-Branch Emotion Compensation for Emotion-Consistent Speaker Anonymization #语音匿名化 #语音情感识别 #自监督学习 #生成模型 #语音合成 🔥 8.5/10 | 前25% | #语音匿名化 | #生成模型 | #语音情感识别 #自监督学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Chenghan Lin(天津大学人工智能学院,认知计算与应用天津市重点实验室) 通讯作者:Longbiao Wang(天津大学人工智能学院,认知计算与应用天津市重点实验室;苏州智研信息技术有限公司),Kong Aik Lee(香港理工大学) 作者列表:Chenghan Lin(天津大学)、Junjie Li(香港理工大学)、Tingting Wang(南京邮电大学通信与信息工程学院)、Meng Ge(天津大学)、Longbiao Wang(天津大学,苏州智研信息技术有限公司)、Kong Aik Lee(香港理工大学)、Jianwu Dang(中国科学院深圳先进技术研究院) 💡 毒舌点评 这篇论文的亮点在于其系统性地解构并攻克了“匿名化必然损伤情感”这一核心矛盾,提出的双分支补偿模块设计思路清晰,从数据集先验(静态)和实例残差(动态)两个层面进行修复,实验结果也确实显著优于同类工作。短板则在于其验证范围较为局限,虽然在IEMOCAP上表现优异,但整个系统在非英语环境下的鲁棒性以及面对更复杂情感(如混合情绪)的处理能力,论文未提供任何数据支撑,使得这个“通用解决方案”的宣称打上了折扣。 📌 核心摘要 要解决的问题:现有的说话人匿名化技术(如基于OHNN的方案)在有效隐藏说话人身份的同时,会严重破坏语音中的情感信息,限制了其在医疗、人机交互等情感敏感场景中的应用。 方法核心:提出一个名为ECSA的情感保留说话人匿名化框架。其核心是双分支情感补偿(D-PEC)模块:一个静态补偿器利用数据集层面的情感原型和软标签进行全局先验补偿;一个动态补偿器通过非线性网络挖掘并增强匿名化嵌入中的残差情感线索。此外,在HiFi-GAN声码器训练中引入了情感一致性损失,确保合成语音与补偿后的嵌入在情感空间对齐。 与已有方法相比新在哪里:摒弃了先前方法中易泄露说话人信息的外接情感编码器。首次提出并行处理数据集全局先验(静态分支)和单条语音残差信号(动态分支)的补偿机制。创新性地将情感一致性约束直接集成到声码器训练中,引导生成器利用情感信息。 主要实验结果:在VPC 2024基准测试上,ECSA在情感保留(UAR)上取得了最佳性能(测试集64.21%),显著超越了所有基线(如P3的57.93%)和顶级参赛系统(如T10的60.87%),同时保持了具有竞争力的匿名化强度(EER 39.69%)和内容可懂度(WER 2.52%)。消融实验证明,移除动态分支、静态分支或情感一致性损失均会导致UAR显著下降,尤其是对悲伤类情感的识别率。 实际意义:该研究为隐私保护技术在实际情感计算应用中的落地提供了可行的解决方案,有望推动语音匿名化技术从“仅保护隐私”向“隐私与效用兼得”的方向发展。 主要局限性:实验评估集中于英语数据集(VPC 2024, IEMOCAP),其在其他语言或方言上的有效性未经验证。模型训练依赖多个预训练组件(emotion2vec+, ECAPA-TDNN, HuBERT),其复杂性增加了部署难度。 🏗️ 模型架构 ECSA框架由说话人匿名化前端和情感补偿后端组成,其推理流程如下(参照论文图1): ...

2026-04-29

EMG-to-Speech with Fewer Channels

📄 EMG-to-Speech with Fewer Channels #语音合成 #多任务学习 #少样本 #数据增强 #生物声学 ✅ 7.5/10 | 前25% | #语音合成 | #多任务学习 | #少样本 #数据增强 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Injune Hwang (首尔大学 智能与信息学系) 通讯作者:Kyogu Lee (首尔大学 智能与信息学系 / 人工智能研究所 / 人工智能跨学科项目) 作者列表:Injune Hwang (首尔大学 智能与信息学系), Jaejun Lee (首尔大学 智能与信息学系), Kyogu Lee (首尔大学 智能与信息学系 / 人工智能研究所 / 人工智能跨学科项目) 💡 毒舌点评 论文最大的亮点在于实验设计的系统性,通过贪心消除、穷举子集和音素分析三管齐下,将“哪些通道更重要”这个问题从工程选择上升到了对肌肉运动互补性的理解层面,其提出的“通道dropout微调”方案也切实有效。然而,所有结论和实验均局限于单说话人公开数据集,这使得其“推动实用化”的宣称在迈向真实、多变的用户场景时显得说服力不足,且模型架构本身并未跳出Gaddy et al. [13] 的框架。 📌 核心摘要 解决问题:表面肌电图(EMG)驱动的无声语音接口性能高度依赖传感器通道数量和位置,但减少通道会导致性能下降。本文旨在系统研究通道重要性,并缓解通道减少带来的性能损失。 方法核心:采用基于卷积和Transformer的EMG编码器模型,通过预测梅尔谱图(语音合成)和音素标签(多任务学习)进行预训练。核心策略是在预训练时引入通道dropout(随机屏蔽部分通道),然后在减少通道的子集上进行微调。 新意:(1) 通过贪心消除和穷举评估所有4通道组合(70种),系统量化了单个通道及通道组合的重要性,揭示了通道间的互补性;(2) 进行了音素级别的消融分析,将通道作用与具体语音学范畴(如擦音、塞音)关联;(3) 提出并验证了基于通道dropout的预训练-微调策略优于从头训练。 主要结果: 4通道子集的最佳WER为47.2%(通道{1,3,5,6}),优于贪心选择的{1,2,3,4}(48.1%)。各通道在所有4通道子集中出现的平均WER排名为:3(51.4) < 2(52.3) < 1(52.6) < 5(52.8) < 6(53.1) < 4(53.7) < 7(53.8) < 8(54.8)。 音素分析表明,去除不同通道对不同类别音素影响显著(如去除通道8对双唇音影响最大,去除通道7对高前元音影响最大)。 在4-6通道设置下,微调模型(基于8通道预训练权重)的WER一致性地低于从头训练的模型。例如,对于4通道最佳子集,微调(dropout p=0)WER为47.2%,而从头训练约为49.5%(根据图3估算)。 实际意义:证明了通过智能的训练策略(预训练+通道dropout+微调),可以在使用更少、更少侵入性传感器时,保持可接受的语音重建性能,有助于开发更轻便、实用的无声语音设备。 主要局限性:(1) 实验仅在单一说话人、单一数据集(Gaddy et al. [5])上验证,结论对其他说话人或场景的泛化能力未知;(2) 最佳通道子集和dropout概率对具体数据集和任务敏感,缺乏普适性指导;(3) 未与近期其他先进的EMG-to-speech模型(如基于扩散的模型)进行对比。 🏗️ 模型架构 论文沿用了Gaddy et al. [13] 提出的EMG-to-speech框架(如图1所示),其核心是一个结合了卷积层和Transformer层的序列模型。 ...

2026-04-29

Emilia-NV: A Non-Verbal Speech Dataset with Word-Level Annotation for Human-Like Speech Modeling

📄 Emilia-NV: A Non-Verbal Speech Dataset with Word-Level Annotation for Human-Like Speech Modeling #语音识别 #语音合成 #数据集 #零样本 ✅ 7.5/10 | 前25% | #语音识别 | #数据集 | #语音合成 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Huan Liao(The Chinese University of Hong Kong, Shenzhen)(论文注明与Qinke Ni同等贡献) 通讯作者:未明确说明(论文中未明确指出通讯作者) 作者列表:Huan Liao(The Chinese University of Hong Kong, Shenzhen),Qinke Ni(The Chinese University of Hong Kong, Shenzhen),Yuancheng Wang(The Chinese University of Hong Kong, Shenzhen),Yiheng Lu(The Chinese University of Hong Kong, Shenzhen),Haoyue Zhan(Guangzhou Quwan Network Technology),Pengyuan Xie(Guangzhou Quwan Network Technology),Qiang Zhang(Guangzhou Quwan Network Technology),Zhizheng Wu(The Chinese University of Hong Kong, Shenzhen) 💡 毒舌点评 亮点在于系统性地填补了普通话副语言词级标注数据的空白,并提出了一个可扩展的标注流水线,为“类人”语音建模提供了急需的燃料。短板在于TTS部分的创新更多是“应用验证”而非“方法突破”,且文中对模型训练的关键细节(如超参数)披露不足,让想复现的同行感到些许乏力。 ...

2026-04-29

EMORL-TTS: Reinforcement Learning for Fine-Grained Emotion Control in LLM-based TTS

📄 EMORL-TTS: Reinforcement Learning for Fine-Grained Emotion Control in LLM-based TTS #语音合成 #强化学习 #语音情感识别 #大语言模型 🔥 8.5/10 | 前25% | #语音合成 | #强化学习 | #语音情感识别 #大语言模型 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Haoxun Li(杭州高等研究院、中国科学院大学) 通讯作者:Taihao Li(杭州高等研究院、中国科学院大学) 作者列表:Haoxun Li(杭州高等研究院、中国科学院大学)、Yu Liu(未说明具体机构)、Yuqing Sun(未说明具体机构)、Hanlei Shi(未说明具体机构)、Leyuan Qu(未说明具体机构)、Taihao Li(杭州高等研究院、中国科学院大学) 💡 毒舌点评 亮点:本文创新性地将强化学习(GRPO)引入LLM-TTS,为解决其“离散Token难以表达连续情感”的痛点提供了优雅的框架,并首次实现了同时控制VAD全局强度和局部词强调,实验数据全面且显著优于基线。 短板:论文声称是“本地PDF”,但缺乏对代码和模型权重公开的明确承诺,严重阻碍了社区的复现与跟进;另外,对“惊讶”等少数情感的强调控制效果较弱,表明模型的泛化能力仍有提升空间。 📌 核心摘要 问题:基于大语言模型的语音合成系统虽能实现高质量零样本合成,但由于其依赖离散语音Token,难以实现对情感的细粒度控制(如连续强度、重点词强调)。 方法核心:提出EMORL-TTS框架,通过监督微调(SFT)与强化学习(GRPO)相结合的方式,统一建模全局情感强度(在VAD空间)与局部语音强调(通过音高和能量特征)。强化学习阶段使用三个任务特定奖励:情感分类准确性、全局VAD强度匹配度和局部强调清晰度。 创新点:a) 首次将VAD空间的全局情感强度控制引入LLM-TTS;b) 设计了基于韵律特征的局部强调控制机制;c) 构建了融合全局与局部控制的统一框架。 实验结果:实验表明,EMORL-TTS在情感准确性(目标与感知准确率均达0.88以上)、强度区分度(平均识别率0.71)和强调清晰度(平均准确率0.75)上均显著优于CosyVoice2、Emosphere++等强基线,同时MOS(4.94)和NISQA(4.11)分数与之相当,证明控制能力提升未牺牲合成质量。具体关键数据如下表所示: 表1:情感准确性客观评估(Emotion2vec准确率) 模型 平均 中性 生气 开心 悲伤 惊讶 CosyVoice2 0.63 0.99 0.56 0.70 0.48 0.44 EMORL-TTS w/o GRPO 0.81 0.91 0.78 0.86 0.75 0.76 Emosphere++ 0.85 0.97 0.93 0.78 0.80 0.77 EMORL-TTS 0.88 0.99 0.93 0.91 0.78 0.81 表3:情感强度区分度主观评估(正确选择更强样本的比例) ...

2026-04-29