Conditional Diffusion Models for Mental Health-Preserving Voice Conversion

📄 Conditional Diffusion Models for Mental Health-Preserving Voice Conversion #语音转换 #扩散模型 #语音匿名化 #语音生物标志物 #零样本 🔥 8.0/10 | 前25% | #语音转换 | #扩散模型 | #语音匿名化 #语音生物标志物 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Siddharth Kalyanasundaram(科罗拉多大学博尔德分校认知科学与计算机科学研究所) 通讯作者:未说明(从邮箱格式和惯例推断,Theodora Chaspari可能为通讯作者,但论文未明确标注) 作者列表:Siddharth Kalyanasundaram(科罗拉多大学博尔德分校认知科学与计算机科学研究所)、Theodora Chaspari(科罗拉多大学博尔德分校认知科学与计算机科学研究所) 💡 毒舌点评 这篇论文巧妙地将扩散模型用于一个“政治正确”但技术挑战十足的场景——在给抑郁症语音“变声”脱敏的同时,还要保住其病情线索,想法和落点都值得称赞。但遗憾的是,模型的训练“粮草”太少(仅28小时语音),导致其在通用语音质量(自然度、可懂度)上略逊于“吃得多”的基线,显得“巧妇难为无米之炊”。 📌 核心摘要 解决的问题:语音是心理健康(如抑郁症)的重要生物标志物,但包含说话人身份等敏感信息,阻碍了数据共享与研究复现。需要在匿名化语音的同时,保留对心理健康研究至关重要的副语言信息。 方法核心:提出一种基于条件扩散模型(DM)的语音转换(VC)框架。首先,将语音解耦为内容(w2v)、音高(f0)、说话人身份(s)和抑郁(d)四个嵌入表示。然后,以目标说话人嵌入(s’)和抑郁嵌入(d)作为条件,指导扩散模型的反向去噪过程,生成既改变身份又保留抑郁线索的新语音。 与已有方法的新意:首次将扩散模型应用于明确保留抑郁线索的语音转换任务。现有VC方法(如基于VAE、GAN的模型)在匿名化时会严重退化副语言信息(如情绪、抑郁线索),而本文通过将抑郁嵌入作为扩散过程的显式条件,实现了对关键生物标志物的保护。 主要实验结果:在未见说话人的零样本设置下,所提模型(DM-23M, DM-67M)与SOTA基线(Vevo-Voice, QuickVC)在语音可懂度(WER/CER)和说话人相似度(SECS)上表现相当。核心优势在于抑郁信息保留:所提模型转换后语音的抑郁严重程度(PHQ-8)预测平均绝对误差(MAE)显著低于基线(DM-23M:5.025 vs. Vevo-Voice:5.478, QuickVC:5.804),且预测分数分布与原始语音更接近(KL散度约0.06 vs. 24+)。 模型 WER ↓ CER ↓ SECS ↑ PHQ-8 MAE ↓ nMOS ↑ sMOS ↑ 原始语音 0.046 0.025 0.872 4.522 4.17 3.85 Vevo-Voice 0.078 0.043 0.850 5.478 4.14 3.74 QuickVC 0.059 0.046 0.731 5.804 4.04 3.59 DM-23M (本文) 0.082 0.047 0.804 5.025 3.97 3.71 DM-67M (本文) 0.068 0.041 0.829 5.055 4.03 3.78 实际意义:为心理健康研究提供了一种潜在的隐私保护工具,可以在保护参与者隐私的前提下,促进脱敏语音数据的共享与分析,有助于推动该领域的研究复现和跨机构合作。 主要局限性:训练数据规模较小(仅28小时),限制了模型生成语音的自然度和可懂度;仅针对抑郁症进行评估,未验证对其他副语言信息(如情绪、认知状态)的保留能力;隐私-效用权衡(EER指标)显示匿名化程度还有提升空间。 🏗️ 模型架构 论文提出的模型架构遵循“源-滤波器”分解框架,并采用扩散模型进行条件生成。整体流程如图1所示。 ...

2026-04-29

CosyAccent: Duration-Controllable Accent Normalization using Source-Synthesis Training Data

📄 CosyAccent: Duration-Controllable Accent Normalization using Source-Synthesis Training Data #语音转换 #流匹配 #语音合成 #数据增强 #非自回归 ✅ 7.8/10 | 前25% | #语音转换 | #流匹配 | #语音合成 #数据增强 学术质量 7.8/7 | 选题价值 7.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Qibing Bai(香港中文大学(深圳)数据科学学院、腾讯天籁音频实验室) 通讯作者:Shuai Wang(南京大学智能科学与技术学院,标注†) 作者列表:Qibing Bai(香港中文大学(深圳)数据科学学院、腾讯天籁音频实验室)、Shuhao Shi(香港中文大学(深圳)数据科学学院)、Shuai Wang(南京大学智能科学与技术学院)、Yukai Ju(腾讯天籁音频实验室)、Yannan Wang(腾讯天籁音频实验室)、Haizhou Li(香港中文大学(深圳)数据科学学院、深圳市大数据研究院、香港中文大学(深圳)高等金融研究院) 💡 毒舌点评 亮点在于“源合成”数据策略的构思巧妙——通过合成非母语语音来使用纯净母语语音作为目标,从根本上规避了TTS伪影污染,这一思路颇具启发性。短板则是其宣称的“无需真实L2数据”在泛化到真实、多样且含噪声的L2语音时可能面临挑战,且模型在说话人相似度上略逊于基线。 📌 核心摘要 这篇论文针对口音归一化(AN)中训练数据稀缺和时长建模生硬两大挑战,提出了一种新的解决方案。核心方法包括:1)提出“源合成”训练数据构建策略,使用强大的提示式TTS(CosyVoice2)从大规模母语语料中合成非母语语音,从而在完全不使用真实L2数据的情况下,构建以高质量母语语音为目标的平行训练对。2)提出了CosyAccent模型,一个基于流匹配的非自回归(NAR)系统,它通过隐式韵律建模保证自然度,并引入“位置缩放”技术实现对输出总时长的显式控制。实验结果显示,尽管未使用真实L2数据训练,CosyAccent在内容保持(WER降至12.96% vs. 基线16.21%)和自然度(主观NAT评分64.62)上显著优于使用真实数据的基线模型。该工作证明了合成数据策略的有效性,为减少对稀缺口音数据的依赖提供了新途径。其主要局限性在于合成数据可能缺乏真实L2语音的声学复杂性和副语言特征。 🏗️ 模型架构 CosyAccent是一个非自回归的口音归一化模型,整体架构包含四个核心模块:语音编码器、CTC投影头、时长预测器和语音解码器。 语音编码器与内容表征:输入的L2源语音首先通过一个冻结的Whisper-medium编码器前端提取特征,然后送入一个Transformer语音编码器,提取高层特征。为了确保这些特征能稳健地表示语言内容,编码器输出后接一个线性投影头,并施加CTC损失进行辅助监督。 语音解码器:采用基于DiT(Diffusion Transformer)的解码器,通过流匹配(Flow Matching)训练,生成梅尔频谱的速度场。每个解码器层包含自注意力、交叉注意力和前馈网络(FFN),每个模块后都接有自适应层归一化(AdaLN),其参数由时间嵌入调制。编码器输出的内容表征通过交叉注意力作为内容条件注入解码器。 时长控制机制:这是模型的关键创新。它结合了隐式和显式的时长控制: 隐式韵律建模:解码器本身不严格对齐源和目标的逐帧位置,允许生成更自然的节奏。 显式总时长控制(位置缩放):在交叉注意力中,使用旋转位置编码(RoPE)。与传统绝对索引不同,论文将源内容特征的位置索引进行归一化缩放,使其终点与目标梅尔频谱长度的终点对齐。这种“位置缩放”技术在源和目标之间建立了粗对齐,确保模型在目标长度被手动指定时(如配音场景需保持时长),仍能正确映射语音的开头、中间和结尾。 总时长预测器:为了灵活性,模型引入一个总时长预测器,用于预测一个缩放比例(目标长度/源长度)。该预测器由DiT骨干网络、注意力池化层构成,并通过流匹配训练。在推理时,可以选择使用预测的比例来确定输出长度,或直接继承源语音的时长。 说话人条件:由于冻结的Whisper编码器可能抑制了源语音的音色信息,模型显式地使用预训练说话人编码器(Resemblyzer)提取说话人嵌入向量作为条件,以确保高保真的音色模仿。解码器的输出受三个输入条件化:带噪样本x_t、时间t、内容特征序列c和说话人嵌入向量s。推理时采用双向Classifier-Free Guidance(CFG)来分别控制整体生成过程和对语言内容的遵循程度。 图2展示了CosyAccent的整体架构,包含语音编码器、CTC头、时长预测器和基于流匹配的语音解码器,并显示了通过位置缩放进行时长控制的机制。 ...

2026-04-29

Expressive Voice Conversion with Controllable Emotional Intensity

📄 Expressive Voice Conversion with Controllable Emotional Intensity #语音转换 #数据增强 #注意力机制 #语音情感识别 #自监督学习 ✅ 7.5/10 | 前25% | #语音转换 | #数据增强 | #注意力机制 #语音情感识别 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nannan Teng(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院) 通讯作者:Ying Hu(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院) 作者列表:Nannan Teng(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院)、Ying Hu(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院)、Zhijian Ou(清华大学电机工程与应用电子技术系)、Sheng Li(东京科学大学工程学院) 💡 毒舌点评 这篇论文最亮眼的地方在于它清晰的“问题-方案”对应逻辑:用“特定属性增强”制造更鲁棒的特征,用“联合注意力”优雅地融合并控制说话人与情感风格,最后用“扰动归一化”来提升合成的表现力,模块设计环环相扣且动机明确。短板则在于情感控制的粒度仍显粗糙,一个标量α控制所有情绪类别的强度,缺乏对不同情绪(如“喜悦”与“愤怒”)可能具有不同强度响应曲线的建模,这在一定程度上限制了其实用性和精细度。 📌 核心摘要 解决的问题:现有的表现力语音转换(VC)方法要么专注于说话人身份和情感风格的迁移,要么专注于情感强度的可控调节,未能很好地将两者结合。本文旨在提出一个能同时实现高质量说话人转换、情感迁移,并允许用户精细控制目标情感强度的VC模型。 方法核心:提出了CEI-VC模型,包含三个关键组件:a) 特定属性增强(SAA):通过共振峰偏移和音高单调化等数据扰动策略,增强模型对说话人和情感特征的鲁棒性。b) 情感解耦与强度控制(EDIC)模块:利用解耦损失和基于联合注意力的风格融合机制,将说话人与情感特征分离,并引入可调参数α在推理时控制情感强度。c) 扰动自适应实例归一化(PbAdaIN):在归一化层中对风格特征施加扰动,提升合成语音的自然度和表现力。 与已有方法相比新在哪里:主要新意在于系统性地结合了数据增强、特征解耦与可控生成三个环节。具体创新包括:1)提出了针对性的SAA策略来同时扰动说话人和情感属性;2)设计了UDIA模块,通过联合注意力机制和可调参数实现情感强度的连续控制;3)提出了PbAdaIN,通过在特征归一化时引入可控噪声来增强表达力。 主要实验结果:在ESD英语数据集上的实验表明,CEI-VC在多项指标上优于5个对比模型。在Unseen-to-Unseen场景下,其自然度MOS(nMOS)为4.02,情感相似度MOS(eMOS)为3.30,情感嵌入余弦相似度(EECS)为0.6663,均为最佳或次佳。消融实验证明SAA、PbAdaIN和UDIA模块均对性能有显著贡献。通过调节参数α(0.2, 0.5, 0.9),转换语音的平均音高和情感分类准确率随强度增加而变化,验证了情感强度控制的有效性。 实际意义:该模型可应用于需要情感表现力和身份控制的语音合成场景,如个性化有声读物生成、影视配音、以及更自然的人机交互对话系统。 主要局限性:论文未讨论模型在极短语音或噪声环境下的鲁棒性;情感强度控制机制(标量α)可能对所有情绪类型过于简化;未公开模型权重和详细训练配置,限制了完全复现。 🏗️ 模型架构 本文提出的CEI-VC模型整体架构如图1所示。其核心是基于变分自编码器(VAE)和归一化流(Normalizing Flow)的框架,旨在学习并转换语音的说话人、情感和内容特征。 ...

2026-04-29

FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec

📄 FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec #语音转换 #扩散模型 #零样本 #语音编解码器 🔥 8.0/10 | 前25% | #语音转换 | #扩散模型 | #零样本 #语音编解码器 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Yurii Halychanskyi(University of Illinois Urbana-Champaign, The Grainger College of Engineering, Siebel School of Computing and Data Science) 通讯作者:未说明 作者列表:Yurii Halychanskyi(UIUC)、Cameron Churchwell(UIUC)、Yutong Wen(UIUC)、Volodymyr Kindratenko(UIUC) 💡 毒舌点评 亮点在于巧妙地将扩散模型的噪声控制机制转化为口音强度的“旋钮”,首次实现了在口音转换中对“转多少”的显式、平滑控制,这对实际应用非常友好。短板是训练数据“作弊”——只用了美式英语单说话人(LJSpeech),这好比只学会了标准答案却没练习过如何修改各地“方言”作业,其面对真正多样化非母语口音时的泛化能力和适应性存疑,而论文对此缺乏深入验证。 📌 核心摘要 问题:现有的口音转换方法缺乏对转换强度的显式控制,难以在“更地道”和“更像本人”之间灵活权衡。 方法核心:提出FAC-FACodec框架,利用FACodec将语音解耦,仅对内容(发音)潜变量zc1进行建模。在训练时,模型学习从加噪的zc1中恢复出美式英语的先验分布。在推理时,通过选择初始加噪的时间步t_start来控制转换强度:t_start越大,表示从越“混乱”的状态开始去噪,结果越偏向先验(美式发音),但可能丢失更多原始特征。 创新点:这是首个提供用户可控参数来调节口音转换强度的框架;仅需目标口音(美式英语)的语音和转录文本进行训练,实现零样本转换;专注于发音层面的修改,严格保留说话人的韵律和音色。 主要实验结果:在L2-Arctic数据集(6种非母语口音)上测试,随着t_start从25增至100,美式口音分类器得分(Acc)从72.22平均提升至89.86,而说话人相似度(SS)从0.97降至0.88,词错误率(WER)从0.07升至0.15,证明了转换强度与身份保留之间的可控权衡。与基线系统相比,在 t_start=100时,本方法在说话人相似度和WER上持平或更优,但在口音得分上通常低于同时重构韵律的系统。 关键数据表(节选): ...

2026-04-29

ICASSP 2026 - 语音转换 论文列表

ICASSP 2026 - 语音转换 共 9 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversio 8.0分 前25% 🥈 Conditional Diffusion Models for Mental Health-Preserving Vo 8.0分 前25% 🥉 CosyAccent: Duration-Controllable Accent Normalization using 7.8分 前25% 4. QE-XVC: Zero-Shot Cross-Lingual Voice Conversion via Query-E 7.5分 前25% 5. MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion 7.5分 前25% 6. Expressive Voice Conversion with Controllable Emotional Inte 7.5分 前25% 7. Lightweight and Perceptually-Guided Voice Conversion for Ele 7.5分 前25% 8. MeanVoiceFlow: One-Step Nonparallel Voice Conversion with Me 7.0分 前25% 9. MaskVCT: Masked Voice Codec Transformer for Zero-Shot Voice 6.5分 前50% 📋 论文详情 🥇 FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec 🔥 8.0/10 | 前25% | #语音转换 | #扩散模型 | #零样本 #语音编解码器 ...

2026-04-29

Leveraging Text-to-Speech and Voice Conversion as Data Augmentation for Alzheimer's Disease Detection from Spontaneous Speech

📄 Leveraging Text-to-Speech and Voice Conversion as Data Augmentation for Alzheimer’s Disease Detection from Spontaneous Speech #语音生物标志物 #数据增强 #语音合成 #语音转换 #语音识别 ✅ 7.0/10 | 前50% | #语音生物标志物 | #数据增强 | #语音合成 #语音转换 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Sina Rashidi(哥伦比亚大学欧文医学中心) 通讯作者:未说明 作者列表:Sina Rashidi(哥伦比亚大学欧文医学中心),Yasaman Haghbin(哥伦比亚大学欧文医学中心),Hossein Azadmaleki(哥伦比亚大学欧文医学中心),Ali Zolnour(哥伦比亚大学欧文医学中心),Maryam Zolnoori(哥伦比亚大学欧文医学中心) 💡 毒舌点评 论文的亮点在于直击临床语音数据稀缺的痛点,巧妙地将大语言模型生成诊断特定文本与语音合成/转换相结合,构成了一套针对ADRD检测的端到端增强框架,并在实验中展示了显著的性能提升。然而,其短板在于作为一篇方法论论文,对生成数据可能引入的分布偏移、领域外泛化性,以及临床部署中至关重要的伦理与隐私风险讨论不足,且关键的复现细节(如完整训练脚本、生成样本的定性评估)缺失,使其更多像一个成功的系统集成案例,而非深入的方法学探索。 📌 核心摘要 问题:基于语音的阿尔茨海默病及相关痴呆(ADRD)检测受限于高质量患者语音数据的稀缺,这限制了深度学习模型(尤其是Transformer)的性能。 方法核心:提出两种生成式语音数据增强管道:(1) TTS管道:先微调LLM(如LLaMA-3.1-8B、medGemma-27B)生成诊断特定的合成文本,再通过零样本TTS(SparkTTS)生成语音;(2) 语音转换(VC)管道:通过基于声学特征的图论配对,使用OpenVoice在说话人之间转换语音,以增加声学多样性同时保留语言内容。 新在哪里:相比传统的SpecAugment等信号域扰动方法,生成式方法能提供更丰富的、具有临床相关性的语言与声学变异性。TTS管道创新性地引入了LLM生成诊断特定文本来驱动语音合成。 主要实验结果:在DementiaBank Pitt Corpus训练,ADReSSo 2021测试集上评估。TTS管道在纯声学模型(SpeechCARE-Whisper)上取得最佳性能,Micro-F1从80.2%提升至90.1%,F1-ADRD从82.9%提升至90.4%。多模态模型(SpeechCARE-AGF)在TTS+VC组合下取得最佳性能(Micro-F1 84.5%)。关键对比如下表: 模型 方法 Micro-F1 (%) F1-ADRD (%) SpeechCARE-AGF 基线 77.4 75.0 TTS管道 78.8 76.1 VC管道 78.8 76.9 TTS+VC 84.5 84.5 SpeechCARE-Whisper 基线 80.2 82.9 频率掩蔽 85.9 87.1 时间掩蔽 87.3 88.3 时间偏移 85.9 87.1 TTS管道 90.1 90.4 VC管道 90.1 90.1 TTS+VC 90.1 90.1 实际意义:为构建可扩展、非侵入性的ADRD语音筛查工具提供了数据层面的解决方案,有助于缓解临床数据收集的困难。 主要局限性:生成语音的质量和保真度未进行详细评估;方法高度依赖于生成模型(LLM, TTS)的质量和可用性;未探讨模型在不同口音、语言及更多样化人群上的泛化能力;伦理考量(如使用合成医疗数据)讨论有限。 🏗️ 模型架构 论文主要描述了两个用于ADRD检测的下游分类模型架构,以及用于数据增强的生成管道。 ...

2026-04-29

Lightweight and Perceptually-Guided Voice Conversion for Electro-Laryngeal Speech

📄 Lightweight and Perceptually-Guided Voice Conversion for Electro-Laryngeal Speech #语音转换 #语音增强 #自监督学习 #低资源 #领域适应 ✅ 7.5/10 | 前25% | #语音转换 | #自监督学习 | #语音增强 #低资源 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Benedikt Mayrhofer(格拉茨理工大学 信号处理与语音通信实验室;维也纳医科大学 综合人工智能医学中心) 通讯作者:未说明(论文提供了多位作者的邮箱,未明确指定通讯作者) 作者列表:Benedikt Mayrhofer(格拉茨理工大学 信号处理与语音通信实验室;维也纳医科大学 综合人工智能医学中心)、Franz Pernkopf(格拉茨理工大学 信号处理与语音通信实验室)、Philipp Aichinger(维也纳医科大学 耳鼻喉科,语音学与语言治疗科;维也纳医科大学 综合人工智能医学中心)、Martin Hagmüller(格拉茨理工大学 信号处理与语音通信实验室;维也纳医科大学 综合人工智能医学中心) 💡 毒舌点评 这篇论文的亮点在于精准的“临床需求驱动工程适配”,它没有空谈大模型,而是针对电子喉语音的具体缺陷(无F0、机械噪声),对现有流式架构StreamVC进行了务实而有效的“减法”改造(移除音高/能量模块)和“加法”增强(感知引导损失),实验设计严谨且消融分析充分。短板在于创新更多是“组合”与“调优”,缺乏一个能引发范式思考的核心算法突破,且模型在韵律生成和极端噪声下的可懂度方面仍有明显差距。 📌 核心摘要 这篇论文针对喉切除患者使用的电子喉(EL)语音存在音高单调、韵律缺失和机械噪声的问题,提出了一种轻量级且感知引导的语音转换(VC)方法。其核心方法是在现有的流式Voice Conversion架构StreamVC基础上进行针对性适配:1)移除了不适用于EL语音的音高(F0)和能量估计模块以简化模型;2)设计了一种利用Whisper编码器特征和DTW对EL-HE(健康语音)平行数据进行时间对齐的预处理流程;3)在训练中引入了包括WavLM感知损失、人类反馈(HF)损失、可懂度损失等多种感知引导损失函数。与已有方法相比,本文的新意在于为EL语音转换这一特殊场景提供了端到端的轻量级流式解决方案,并系统评估了不同感知损失组合的影响。实验结果表明,最佳模型配置(+WavLM+HF)将EL语音的字符错误率(CER)从88.2%大幅降低至41.9%,将自然度评分(nMOS)从1.1提升至3.3,显著缩小了与健康语音的差距。其实际意义在于为语音康复提供了一种低延迟、轻量化的潜在工具。主要局限性是韵律生成和极端条件下的可懂度仍是瓶颈。 🏗️ 模型架构 该模型架构(如图1所示)是对StreamVC的轻量级自适应改造,整体是一个全卷积、因果(支持流式处理)的编码器-解码器结构,用于执行从EL语音到HE语音的转换。 完整流程:输入EL语音波形,经过内容编码器提取语言内容特征(与说话人无关),同时通过说话人编码器提取目标HE说话人的声纹嵌入。内容特征与说话人嵌入通过FiLM条件层调制后,送入解码器重构出目标HE语音波形。整个模型在GAN框架下训练,包含一个判别器(遵循HiFi-GAN的MPD和MSD设计)。 主要组件: 内容编码器 (Content Encoder):由多个卷积块(Encoder-Block)堆叠而成,每个块包含两个Conv1D层。其核心任务是从EL语音中提取“内容单位”。与StreamVC不同,这里使用mHuBERT-147作为教师模型,通过k-means聚类生成离散单元,学生编码器通过预测这些单元来学习内容表示。这种自监督预训练有助于学习对噪声鲁棒的内容特征。 说话人编码器 (Speaker Encoder):结构与内容编码器类似,但末端连接了一个可学习池化层 (Learnable Pooling),将变长的语音特征序列聚合为一个固定维度的全局说话人嵌入向量。 解码器 (Decoder):由解码块(Decoder-Block)和残差单元(ResidualUnit)构成。其关键设计是采用了FiLM(Feature-wise Linear Modulation)条件层。说话人嵌入通过FiLM层对解码器中间层的特征进行逐特征的仿射变换(缩放和平移),从而将说话人特征“注入”到由内容编码器生成的内容特征中,指导解码器合成具有目标说话人音色的语音。 感知引导损失 (Guided Losses):虽然不是模型组件,但这是训练时的核心创新。它包括: 重建损失:Mel频谱重构损失。 对抗与特征匹配损失:来自GAN判别器的损失。 感知损失 (WavLM):在预训练的WavLM特征空间计算生成语音与真实HE语音的MSE,鼓励生成语义和声学上更真实的表示。 人类反馈损失 (HF):基于UTMOS分数(不包含PESQ)的负均值,直接优化模型输出的感知自然度。 可懂度损失 (BNF/WEO):分别在Conformer-CTC瓶颈特征和Whisper编码器特征空间计算MSE,引导模型生成更清晰、易于理解的语音。 F0轮廓损失:预测并约束生成语音的基频轨迹。 关键设计选择及动机:移除StreamVC中的F0和能量模块是本文最重要的架构调整。原因在于EL语音本身缺乏自然的F0变化,保留这些模块不仅无益,还会增加模型复杂度。替换为多语言mHuBERT-147教师模型是为了更好地适配德语(及奥地利德语)数据。这些改动使模型更轻量(总参数约30M,大小123MB),更专注于解决EL语音转换的核心问题。 ...

2026-04-29

MaskVCT: Masked Voice Codec Transformer for Zero-Shot Voice Conversion with Increased Controllability via Multiple Guidances

📄 MaskVCT: Masked Voice Codec Transformer for Zero-Shot Voice Conversion with Increased Controllability via Multiple Guidances #语音转换 #掩码建模 #无分类器引导 #零样本 ✅ 6.5/10 | 前50% | #语音转换 | #掩码建模 | #无分类器引导 #零样本 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Junhyeok Lee(Johns Hopkins University, Center for Language and Speech Processing) 通讯作者:Najim Dehak(Johns Hopkins University, Center for Language and Speech Processing) 作者列表: Junhyeok Lee(Johns Hopkins University, Center for Language and Speech Processing) Helin Wang(Johns Hopkins University, Center for Language and Speech Processing) Yaohan Guan(Johns Hopkins University, Center for Language and Speech Processing) Thomas Thebaud(Johns Hopkins University, Center for Language and Speech Processing) Laureano Moro-Velazquez(Johns Hopkins University, Center for Language and Speech Processing) Jesús Villalba(Johns Hopkins University, Center for Language and Speech Processing) Najim Dehak(Johns Hopkins University, Center for Language and Speech Processing) 💡 毒舌点评 这篇论文的亮点在于其前所未有的控制灵活性,通过巧妙设计让用户能在推理时“拧旋钮”来平衡音色、音高和音素,而非被固定在一种模式里。然而,其短板也很明显:MaskVCT-Spk模式为了极致音色模仿,可懂度(WER)比最强基线差了近一倍,且论文对如何系统化地选择那些“旋钮”权重(CFG系数)的讨论略显薄弱,更像是试错后的结果。 ...

2026-04-29

MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion via Mean Flows

📄 MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion via Mean Flows #语音转换 #零样本 #流匹配 #自回归模型 #流式处理 ✅ 7.5/10 | 前25% | #语音转换 | #流匹配 | #零样本 #自回归模型 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Guobin Ma(西北工业大学计算机学院, Audio, Speech and Language Processing Group (ASLP@NPU)) 通讯作者:Lei Xie(西北工业大学计算机学院, ASLP@NPU)、Pengcheng Zhu(吉利汽车研究院(宁波)有限公司) 作者列表: Guobin Ma(西北工业大学计算机学院, ASLP@NPU) Jixun Yao(西北工业大学计算机学院, ASLP@NPU) Ziqian Ning(西北工业大学计算机学院, ASLP@NPU) Yuepeng Jiang(西北工业大学计算机学院, ASLP@NPU) Lingxin Xiong(吉利汽车研究院(宁波)有限公司) Lei Xie(西北工业大学计算机学院, ASLP@NPU) Pengcheng Zhu(吉利汽车研究院(宁波)有限公司) 💡 毒舌点评 亮点:用仅14M参数的轻量模型,在流式推理中实现了远超100M级模型的零样本转换质量与效率(RTF低至0.136),是“小模型办大事”的典范。 短板:系统依赖固定的预训练ASR和说话人编码器模块,这些模块的性能上限决定了最终效果,核心创新更像是对现有组件的巧妙“集成”与“调参”。 ...

2026-04-29

MeanVoiceFlow: One-Step Nonparallel Voice Conversion with Mean Flows

📄 MeanVoiceFlow: One-Step Nonparallel Voice Conversion with Mean Flows #语音转换 #流匹配 #非并行训练 #零样本 ✅ 7.0/10 | 前25% | #语音转换 | #流匹配 | #非并行训练 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Takuhiro Kaneko(NTT, Inc., Japan) 通讯作者:未说明 作者列表:Takuhiro Kaneko(NTT, Inc., Japan)、Hirokazu Kameoka(NTT, Inc., Japan)、Kou Tanaka(NTT, Inc., Japan)、Yuto Kondo(NTT, Inc., Japan) 💡 毒舌点评 该工作巧妙地将“均值流”这一前沿生成建模思想移植到语音转换任务,并针对性地设计了零输入约束和条件扩散输入训练来解决训练稳定性与一致性问题,思路清晰且实验扎实。但美中不足的是,其提出的“一步”模型在最终性能上并未对先前通过复杂蒸馏训练的“一步”模型形成代差优势,且完全未开源代码,让“可复现”的承诺大打折扣。 📌 核心摘要 要解决的问题:基于扩散和流匹配的语音转换模型虽然质量高,但由于需要迭代推理,转换速度慢,限制了其实时应用。 方法核心:提出MeanVoiceFlow,一个基于“均值流”的一步非并行语音转换模型。其核心是用“平均速度”替代传统流匹配中的“瞬时速度”,使得路径积分可以在单步内直接计算,无需数值近似。 主要创新:1)提出零输入约束,通过基于SSIM的结构性损失和对高质量样本设置margin的策略,稳定平均速度的训练,避免输出模糊。2)提出条件扩散输入训练,在训练时也使用混合了噪声的源语音作为输入,消除了训练和推理时的输入分布不匹配问题。 主要实验结果:在VCTK数据集的零样本语音转换任务上,MeanVoiceFlow(一步推理)的客观指标(如pMOSs=3.90, SECS=0.883)和主观评测(nMOS=3.87, sMOS=2.92)均显著优于其他一步基线模型(如VoiceGrad-FM-1),并与多步模型(如VoiceGrad-FM-30)和通过蒸馏训练的FastVoiceGrad+性能相当。关键实验数据见下表。 模型 NFE↓ nMOS↑ sMOS↑ pMOSs↑ pMOSn↑ pMOSv↑ CER↓ SECS↑ VoiceGrad-FM-1 1 3.14±0.11 2.60±0.13 3.81 3.69 4.01 1.1 0.885 FastVoiceGrad† 1 3.73±0.09* 2.93±0.11 3.96 3.77 4.04 1.3 0.888 FastVoiceGrad+† 1 3.81±0.10 2.99±0.13 3.99 3.79 4.03 1.2 0.888 MeanVoiceFlow 1 3.87±0.09 2.92±0.13 3.98 3.78 4.10 1.2 0.886 VoiceGrad-FM-30 30 3.79±0.10 2.92±0.12 3.88 3.79 4.05 1.1 0.885 († 表示需要预训练教师和判别器) 实际意义:证明了无需知识蒸馏或对抗训练等复杂流程,也能从头训练出高质量的一步语音转换模型,降低了训练门槛,简化了部署流程。 主要局限性:一步推理模型的语音自然度和说话人相似度与多步模型相比仍存在微小差距;论文未讨论模型对基频等精细声学特征的转换能力;未提供开源代码和模型,限制了社区的验证与应用。 🏗️ 模型架构 MeanVoiceFlow的架构核心是一个条件生成模型,其骨干网络(uθ)沿用了基线工作FastVoiceGrad中的U-Net结构(12层卷积,512隐藏通道,2次下采样,使用GLU和权重归一化)。 ...

2026-04-29