Discrete-Continuous Fusion With Adaptive Hierarchical Features For Audio Deepfake Detection

📄 Discrete-Continuous Fusion With Adaptive Hierarchical Features For Audio Deepfake Detection #音频深度伪造检测 #迁移学习 #自监督学习 #端到端 🔥 8.0/10 | 前10% | #音频深度伪造检测 | #迁移学习 #自监督学习 | #迁移学习 #自监督学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jianqiao Cui(清华大学自动化系) 通讯作者:未说明(论文中星号标注了Bingyao Yu为通讯作者,但需根据星号原文确认,此处依据“*Corresponding author”和“∗”对应Bingyao Yu) 作者列表:Jianqiao Cui(清华大学自动化系, 长三角研究院),Bingyao Yu(清华大学自动化系),Shun Qin(清华大学长三角研究院) 💡 毒舌点评 本文提出的“离散语义标签与连续声学特征融合”思路新颖,且实验证明HAT模块对跨数据集鲁棒性提升显著。然而,其核心性能高度依赖于第三方模型GLM-4-Voice生成的语义标签质量,且所有实验均基于英语数据集,对跨语言泛化和实时攻击的鲁棒性未做验证,实际部署还需考量计算开销。 🔗 开源详情 代码:论文中未提及代码链接或开源计划。 模型权重:论文中未提及公开其微调后的模型权重。 数据集:使用了公开的CodecFake和ASVspoof2021数据集,论文中未提及数据获取方式的特殊说明。 Demo:论文中未提及提供在线演示。 复现材料:论文提供了模型架构图(图1)、关键超参数设置(学习率、batch size、优化器、训练轮数等)和模型配置(冻结层策略、HRC参数),这些信息有助于复现。 论文中引用的开源项目: Whisper(OpenAI):作为核心骨干网络。 GLM-4-Voice(THUDM):用于生成离散语义标签。 CodecFake、ASVspoof2021:作为评估基准数据集。 📌 核心摘要 该论文旨在解决当前基于神经编解码器的语音合成技术生成的深度伪造音频难以被现有检测方法有效识别的问题。其核心方法是将预训练的Whisper模型用于音频深度伪造检测,并引入两个关键模块:1)混合音频标记(HAT),将来自GLM-4-Voice的离散语义标签与Whisper编码器的连续声学特征进行融合,以捕捉语义与声学之间的不一致;2)分层残差连接(HRC),通过自适应地选择和整合Whisper编码器不同层次的输出特征,来保留多层次的伪造线索。与已有的单模态声学特征方法或简单的特征加权和方法相比,该方法能更有效地利用语义信息并保留关键的层次特征。在ASVspoof2021 DF、LA和CodecFake验证集上的实验表明,其最佳模型(Wsp with HAT&HRC)取得了0.67%的平均等错误率(EER),相较于强基线模型(如XLS-R)的EER降低了高达46%。具体实验数据如下: ...

2026-04-29

Disentangled Authenticity Representation for Partially Deepfake Audio Localization

📄 Disentangled Authenticity Representation for Partially Deepfake Audio Localization #音频深度伪造检测 #对比学习 #语音伪造检测 #音频安全 ✅ 6.5/10 | 前25% | #音频深度伪造检测 | #对比学习 | #语音伪造检测 #音频安全 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Siding Zeng(中国科学院自动化研究所多模态人工智能系统国家重点实验室、中国科学院大学人工智能学院) 通讯作者:论文中未明确标注通讯作者,依据学术惯例,可能为Siding Zeng或其他未列出作者。 作者列表:Siding Zeng(中国科学院自动化研究所多模态人工智能系统国家重点实验室、中国科学院大学人工智能学院)。论文中仅列出此一位作者,但机构信息显示有两个隶属单位。 💡 毒舌点评 论文的亮点在于其针对特定痛点(域偏移和边界模糊)设计了一套逻辑自洽、组件协同的解决方案,消融实验也扎实地证明了各模块的有效性。然而,其核心思想——将表示解耦为“目标”与“干扰”成分——在计算机视觉等领域已不新鲜,论文的创新更多体现在如何将这一通用思想“翻译”并适配到部分伪造音频定位这个具体任务上,属于扎实的工程优化而非理论或架构上的重大突破。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开模型权重。 数据集:实验使用了公开的PartialSpoof和ADD2023数据集,但论文本身未发布新数据集。 Demo:未提及在线演示。 复现材料:提供了较为详细的训练配置(优化器、学习率、批量大小、损失权重、硬件),但未提供完整的训练脚本、配置文件或预训练检查点。 论文中引用的开源项目:引用了Wav2Vec2预训练模型(作为特征提取器)。 总结:论文中未提及明确的开源计划。 📌 核心摘要 问题:部分深度伪造音频(仅少数片段被篡改)的定位面临两大挑战:训练与测试数据间的域偏移,以及真实与伪造段之间细微的过渡边界。 方法核心:提出DisAR双分支框架,将每个音频帧的特征显式解耦为“真实性特征”(捕捉伪造痕迹)和“干扰因素特征”(编码说话人、内容、环境等信息)。通过门控融合模块重建原始特征以避免信息丢失,并利用局部时间对比损失增强对篡改边界的敏感性。 创新点:与已有方法相比,新在显式地将真实性信息与干扰因素分离,而非隐式地让模型自行学习;并通过融合重构和对比损失分别保障信息完整性和提升边界精度。 主要结果:在PartialSpoof数据集上,DisAR取得了95.75%的F1分数(EER 3.51%);在ADD2023 Track 2(跨域测试)上,F1分数达到76.74%(EER 19.05%),均优于报告的基线。关键消融实验证明,移除正交损失、融合模块或对比损失均会导致性能显著下降(例如,无正交损失时F1降至68.48%)。 主要对比实验结果(表1): 方法 PartialSpoof F1 (%) ADD2023 Track 2 F1 (%) AGO (ICASSP’24) 94.36 71.87 DisAR (本文) 95.75 76.74 跨域泛化结果(表3):PartialSpoof -> ADD2023设置下,DisAR的F1分数为57.81%,远高于基线SPF(37.15%)和RSDM(34.09%)。 实际意义:提升了深度伪造音频检测在真实复杂场景(不同设备、环境、语言)下的可靠性和可解释性(通过解耦的特征)。 ...

2026-04-29

Disentangling Physiology from Fidelity: Latent-Guided Diffusion Models for Cross-Modal Cardiac Synthesis

📄 Disentangling Physiology from Fidelity: Latent-Guided Diffusion Models for Cross-Modal Cardiac Synthesis #音频生成 #扩散模型 #状态空间模型 #数据增强 #跨模态 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #状态空间模型 #数据增强 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Chenyang Xu(西安电子科技大学 网络安全学院) 通讯作者:Hao Wang(西安电子科技大学 网络安全学院) 作者列表:Chenyang Xu(西安电子科技大学 网络安全学院)、Siming Li(西安电子科技大学 电信工程学院)、Wensai Xuan(西安电子科技大学 机电工程学院)、Hao Wang(西安电子科技大学 网络安全学院) 💡 毒舌点评 亮点:论文巧妙地将“内容”(生理状态)与“风格”(信号波形)解耦,其潜在空间t-SNE可视化(图4)首次提供了学习到的生理状态分离的直观证据,这是一个令人信服的贡献。短板:方法的有效性高度依赖于配对、同步且状态标注清晰的高质量数据(如Ephnogram),在真实世界更嘈杂、异构的临床数据中的泛化能力存疑,而论文未对此进行任何讨论或验证。 🔗 开源详情 代码:论文中未提及代码链接或开源计划。 模型权重:未提及公开权重。 数据集:论文使用了公开的Ephnogram数据集,但未提供获取链接或具体说明。 Demo:未提及。 复现材料:论文提供了较为详细的训练超参数(学习率、批大小、优化器、轮数)、模型结构(维度、层数)、损失函数公式及β值选择过程,这有助于复现。但未提供配置文件、训练脚本或预训练检查点。 论文中引用的开源项目:未在文中明确列出依赖的开源工具。架构中引用了Mamba[9]、AdaLN[21]等技术,但未指明是否使用了其官方开源实现。 📌 核心摘要 要解决的问题:心电图(ECG)与心音图(PCG)的跨模态合成对于综合心血管评估至关重要,但面临长程依赖建模和保持临床保真度的挑战。 方法核心:提出Mamba-Diff-VAE两阶段框架。第一阶段,共享的Mamba-VAE编码器将输入信号编码到一个捕获核心生理内容的结构化共享潜在空间。第二阶段,条件Mamba扩散解码器在潜在代码和元数据(如生理状态)的引导下,生成高保真的目标波形。 与已有方法相比新在哪里:不同于直接端到端的条件扩散模型,该工作明确将“内容表示”与“波形生成”解耦。使用Mamba替代Transformer处理长序列,具有线性复杂度优势。并且首次实证了学习到的潜在空间能有意义地区分生理状态(如静息与运动后)。 主要实验结果:在Ephnogram数据集上,该方法在ECG-to-PCG和PCG-to-ECG双向合成任务上均取得SOTA。与最强基线SSSM-Diff相比,在ECG-to-PCG任务上MSE降低40%(0.149 vs 0.089),相关性提高13%(0.745 vs 0.847);在PCG-to-ECG任务上MSE降低35%(0.173 vs 0.112)。消融研究(表2)证实了VAE组件和共享编码器的关键作用。 实际意义:该框架可用于生成高质量的合成心脏信号进行数据增强,提升下游诊断模型性能;其结构化潜在空间为心脏生理状态建模和潜在生物标志物发现提供了新途径。 主要局限性:研究仅基于一个公开数据集(Ephnogram)和健康/运动状态,未在病理数据集上验证泛化性;潜在空间分析主要停留在t-SNE可视化层面;推理过程未针对临床实时性进行优化。 🏗️ 模型架构 论文提出的Mamba-Diff-VAE是一个两阶段生成框架,旨在实现ECG和PCG信号的双向合成。其整体架构如图1所示。 ...

2026-04-29

Dissecting Performance Degradation in Audio Source Separation under Sampling Frequency Mismatch

📄 Dissecting Performance Degradation in Audio Source Separation under Sampling Frequency Mismatch #音乐源分离 #信号处理 #鲁棒性 #数据增强 ✅ 7.5/10 | 前25% | #音乐源分离 | #信号处理 | #鲁棒性 #数据增强 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Kanami Imamura (东京大学,日本产业技术综合研究所(AIST)) 通讯作者:未说明 作者列表:Kanami Imamura (东京大学,AIST)、Tomohiko Nakamura (AIST)、Kohei Yatabe (东京农工大学)、Hiroshi Saruwatari (东京大学) 💡 毒舌点评 亮点:论文以一种非常“工程化”且易于复现的方式(仅在重采样核中添加高斯噪声)解决了DNN模型对采样率变化的敏感性问题,并验证了其在多个主流模型上的普适性,实用价值很高。短板:理论深度有限,对“为什么添加噪声就能恢复性能”的解释停留在“提供高频成分存在性”的层面,未能更深入地揭示DNN模型内部为何对这种统计特性(而非精确频谱内容)如此敏感。 🔗 开源详情 代码:论文明确提供了噪声核重采样的代码仓库链接:https://github.com/kuielab/sdx23/。同时,基线模型(如BSRNN)的实现引用了另一个开源仓库:https://github.com/amanteur/BandSplitRNN-PyTorch。 模型权重:未提及公开训练好的噪声核重采样网络权重。对于对比中使用的其他预训练模型(如MDX23C),论文未说明是否提供权重。 数据集:实验使用了公开的MUSDB18-HQ数据集,论文中给出了数据集引用。 Demo:未提及。 复现材料:论文详细描述了实验设置(数据集划分、重采样参数、网络结构、训练超参数等),并提供了参考代码链接,具备较好的复现基础。 论文中引用的开源项目:TorchAudio(用于实现常规重采样), BandSplitRNN-PyTorch(BSRNN实现), Music-Source-Separation-Training(多个预训练模型)。 📌 核心摘要 问题:基于DNN的音频源分离模型通常在单一采样频率下训练。当处理不同采样率的输入时,常用重采样到训练采样率的方法,但这会导致性能下降,尤其是当输入采样率低于训练采样率时。 方法:作者提出两个假设:(i) 上采样导致的高频成分缺失是性能下降的原因;(ii) 高频成分的存在性比其具体频谱内容更重要。为此,他们提出并对比了三种替代重采样方法:后重采样噪声添加(直接在信号上加噪)、噪声核重采样(在插值核上加噪)、可训练核重采样(用DNN参数化插值核)。 创新:与传统重采样方法相比,本工作系统性地分析了性能下降的原因,并提出了一种极其简单却有效的“噪声核重采样”方法。其核心创新在于发现并验证了为重采样信号补充与输入信号相关的高频成分(而非不相关的噪声) 即可有效缓解性能下降。 实验结果:在MUSDB18-HQ数据集上进行音乐源分离实验。基线模型BSRNN在8kHz输入(训练于44.1kHz)下,人声SDR从6.58dB降至3.47dB。使用噪声核重采样后,SDR恢复至6.05dB。在包括Conv-TasNet, BSRNN, Mel-RoFormer在内的多个模型上,噪声核重采样均能缓解常规重采样带来的性能下降(见表1)。可训练核重采样效果类似,而后重采样噪声添加则效果不佳甚至恶化。 实际意义:提供了一种简单、通用且有效的工程解决方案,只需在现有重采样步骤的核函数中添加微小噪声,即可提升DNN音频模型对采样率变化的鲁棒性,便于实际部署。 局限性:研究主要局限于音乐源分离任务,结论在语音增强等其他音频任务上的普适性有待验证。对于可训练核重采样,其训练增加了额外开销。论文未能从根本上提出一种与采样率无关的DNN架构。 🏗️ 模型架构 本文并未提出一个新的分离模型架构,而是专注于研究重采样这一预处理/后处理步骤对现有分离模型性能的影响。其核心架构是DNN音频源分离的通用流水线(如图1(a)所示): ...

2026-04-29

DISSR: Disentangling Speech Representation for Degradation-Prior Guided Cross-Domain Speech Restoration

📄 DISSR: Disentangling Speech Representation for Degradation-Prior Guided Cross-Domain Speech Restoration #语音增强 #扩散模型 #对比学习 #领域适应 #模型评估 ✅ 7.5/10 | 前25% | #语音增强 | #扩散模型 | #对比学习 #领域适应 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Ziqi Liang(蚂蚁集团,杭州) 通讯作者:Jian Wang(蚂蚁集团,杭州,bobblair.wj@antgroup.com) 作者列表:Ziqi Liang(蚂蚁集团),Zhijun Jia(蚂蚁集团),Chang Liu(中国科学技术大学,合肥),Minghui Yang(蚂蚁集团),Zhihong Lu(蚂蚁集团),Jian Wang(蚂蚁集团)。 注:作者贡献标注为† Equal Contribution,故Ziqi Liang与Zhijun Jia贡献相当。 💡 毒舌点评 亮点:论文直击现有语音修复模型跨说话人风格泛化能力差的痛点,并提出了一个新颖的假设——降质信息与说话人风格解耦,并据此设计了引导扩散模型的先验模块,思路清晰且具有启发性。短板:支撑“降质信息包含在说话人风格中”这一核心假设的实验(图3)略显间接,分类器收敛快慢并不能直接等同于“说话人风格”特征包含了全部且纯粹的“降质”信息,论证链不够坚实。 🔗 开源详情 代码:论文中未提及代码仓库链接。 模型权重:未提及。 数据集:使用了公开数据集LibriTTS, VCTK, AISHELL-3, JSUT,但未提供本文特有的模拟退化脚本或处理流程。 Demo:提供了演示网站:https://itspsp.github.io/DisSR。 复现材料:论文中未提供详细的训练配置、超参数设置或预训练检查点。 论文中引用的开源项目:提到了使用VoiceFixer [8]和SelfRemaster [4]的开源流水线来创建训练数据。 总结:论文中未提及完整的开源计划。 📌 核心摘要 解决的问题:现有语音修复方法多为针对单一失真的特定模型,泛化能力差,尤其是面对训练时未见过的说话人风格(跨域)时性能下降明显。 方法核心:提出DisSR模型,核心思想是将退化语音解纠缠为内容、说话人风格和降质表示。其中,降质表示被设计为说话人无关的先验信息,并用于条件引导一个基于扩散模型的恢复网络。同时,引入跨域对齐训练来最小化不同说话人分布间的差距。 创新点:1) 提出并实验验证了降质信息主要存在于说话人风格表示中的假设;2) 利用说话人无关的降质先验引导扩散模型进行通用语音修复;3) 设计了针对降质编码器的跨域对齐训练策略以提升模型泛化能力。 主要实验结果:在跨语言(英→中/日)跨说话人测试集上,DisSR在DNSMOS、PESQ-wb、MCD三项指标上均优于VoiceFixer、SelfRemaster和SGMSE+M基线模型(例如在LibriTTS→VCTK英文测试集上,PESQ-wb为3.02,相比最优基线SGMSE+M的2.74有显著提升)。在单任务修复(如带宽扩展、去噪)中,DisSR也展现出竞争力,总体感知质量(COVL)占优。消融实验表明,所提出的各组件(多层级降质先验、降质表示学习、跨域对齐损失)均对性能有贡献。 实际意义:为构建能处理多种失真且对新说话人鲁棒的通用语音修复系统提供了一种新思路,具有较强的实用价值。 主要局限性:核心假设的直接验证稍显薄弱;实验中假设“每条语音内降质相同,语音间变化”,这与真实世界复杂场景可能存在差距;未公开代码与模型,限制了可复现性。 🏗️ 模型架构 DisSR的整体架构如图2所示,主要分为两个协同工作的模块:说话人无关的降质解纠缠模块和跨域语音恢复模块。 ...

2026-04-29

Distilling Attention Knowledge for Speaker Verification

📄 Distilling Attention Knowledge for Speaker Verification #说话人验证 #知识蒸馏 #注意力机制 #语音预训练模型 🔥 8.0/10 | 前25% | #说话人验证 | #知识蒸馏 | #注意力机制 #语音预训练模型 学术质量 7.5/7 | 选题价值 1.5/2 | 复现加成 -1.0 | 置信度 高 👥 作者与机构 第一作者: Zezhong Jin(香港理工大学) 通讯作者: 未明确说明(从作者列表和单位推断,可能为Man-Wai Mak或Kong Aik Lee,但论文未明确标注) 作者列表: Zezhong Jin¹, Shujie Liu², Zhe Li³, Chong-Xin Gan¹, Zilong Huang¹, Man-Wai Mak¹, Kong Aik Lee¹ 香港理工大学 (The Hong Kong Polytechnic University) 微软亚洲研究院 (Microsoft Research Asia) 香港大学 (The University of Hong Kong) 💡 毒舌点评 亮点: 论文巧妙地将主流ASV模型(ECAPA-TDNN)中已有的SE模块和注意力池化层作为“注意力图”的来源,无需额外设计复杂的注意力机制,这种“就地取材”的工程思维很聪明,也让方法更具通用性和可移植性。 短板: 开源信息严重缺失,对于一篇强调“方法有效性”和“复现价值”的会议论文而言,没有代码和模型权重几乎是“反向操作”,极大削弱了其对社区的实际贡献度。 ...

2026-04-29

Distributed Multichannel Active Noise Control with Asynchronous Communication

📄 Distributed Multichannel Active Noise Control with Asynchronous Communication #信号处理 #分布式算法 #多通道 #实时处理 🔥 8.0/10 | 前25% | #信号处理 | #分布式算法 | #多通道 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junwei Ji(南洋理工大学电气与电子工程学院) 通讯作者:未说明(但根���邮箱和贡献,可能是Woon-Seng Gan) 作者列表: Junwei Ji(南洋理工大学电气与电子工程学院) Dongyuan Shi(西北工业大学海洋科学与技术学院) Boxiang Wang(南洋理工大学电气与电子工程学院) Ziyi Yang(南洋理工大学电气与电子工程学院) Haowen Li(南洋理工大学电气与电子工程学院) Woon-Seng Gan(南洋理工大学电气与电子工程学院) 💡 毒舌点评 论文巧妙地将权重约束与异步触发机制结合,为分布式降噪系统提供了一个通信友好的实用方案,仿真实验也扎实地证明了其在降低通信开销方面的显著效果。然而,其核心创新是工程组合而非理论突破,且实验仅限于仿真环境,未在真实异步、有延迟的网络条件下进行验证,说服力打了折扣。 🔗 开源详情 代码:论文中提供了代码仓库链接:https://github.com/Ji-Junwei/ACDMCANC。代码将在该链接发布。 模型权重:未提及。 数据集:论文中使用的声学路径数据在真实噪声室中测量,未说明是否公开或如何获取。 Demo:未提及。 复现材料:论文给出了关键仿真参数(节点数、滤波器长度、步长、惩罚因子、采样率)和系统设置,但未提供声学路径的具体数据、补偿滤波器的估计方法细节或代码配置文件。复现需要基于这些参数自行搭建仿真环境或获取原始声学测量数据。 论文中引用的开源项目:未明确引用其他依赖的开源工具或模型。 📌 核心摘要 问题:传统的分布式多通道主动噪声控制(DMCANC)方法通常假设节点间同步且频繁地通信,导致通信开销过高,难以适应异构或资源受限的网络环境。 方法核心:提出异步通信DMCANC系统。每个节点独立运行权重约束的FxLMS(WCFxLMS)算法,在通信间隔期间保持稳定。节点根据本地噪声抑制性能的下降情况自主决定是否发起通信请求。响应时,其他节点仅传输其控制滤波器与中心点的权重差(weight difference),并通过混合权重差(MWD)操作融合信息,更新本地控制滤波器和中心点。 新意:与现有同步、每采样点都通信的分布式方法不同,该方法实现了按需、异步通信,大幅减少了通信次数。WCFxLMS确保了非通信期间的稳定性,MWD规则实现了异步信息的有效融合。 实验结果:在6节点系统中进行仿真。图3(a)显示,在抑制100-1000Hz宽带噪声时,ACDMCANC的降噪性能(ANSE)略低于集中式MEFxLMS和同步MGDFxLMS,但显著优于无通信的基准。图3(b)表明节点通信时间点不同,验证了异步性。图4(a)(b)在真实压缩机噪声下,ACDMCANC同样表现出有效的降噪性能,但收敛稍慢。关键数据:在图3(a)中,15秒时ACDMCANC的ANSE约比MEFxLMS差5-8 dB,但实现了“通信实例”的大幅减少(图3(b)显示节点1和2在15秒内仅分别触发通信约4次和2次)。 实际意义:该方法降低了对网络通信带宽和实时性的要求,提升了分布式降噪系统在异构网络中的可部署性、扩展性和鲁棒性。 局限性:由于异步通信和权重约束,其收敛速度和最终降噪性能略逊于完全同步通信的方法。仿真实验未考虑实际网络中的传输延迟和丢包问题。 🏗️ 模型架构 论文提出的ACDMCANC系统是一个分布式自适应信号处理系统,其核心架构由多个功能相同的ANC节点组成。每个节点包含一个参考传感器(共享)、一个次级声源、一个误差传声器和一个负责通信与处理的ANC控制器。图2展示了第k个节点的详细框图。 ...

2026-04-29

DiTSE: High-Fidelity Generative Speech Enhancement via Latent Diffusion Transformers

📄 DiTSE: High-Fidelity Generative Speech Enhancement via Latent Diffusion Transformers #语音增强 #扩散模型 #Transformer #高保真音频 🔥 8.5/10 | 前10% | #语音增强 | #扩散模型 | #Transformer #高保真音频 学术质量 8.5/7 | 选题价值 8.0/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Heitor R. Guimarães (INRS-EMT, Université du Québec, Montréal, Canada) 通讯作者:未明确说明(根据作者顺序和单位,通常最后一位或带有†标记的作者可能是通讯作者,但论文中未明确标注) 作者列表: Heitor R. Guimarães(INRS-EMT, Université du Québec, Montréal, Canada;其工作在Adobe Research实习期间完成) Jiaqi Su(Adobe Research, San Francisco, California, United States) Rithesh Kumar(Adobe Research, San Francisco, California, United States) Tiago H. Falk(INRS-EMT, Université du Québec, Montréal, Canada) Zeyu Jin(Adobe Research, San Francisco, California, United States) 💡 毒舌点评 亮点:该工作首次在主观评测中将语音增强的输出质量提升至与真实录音棚录音(DAPS数据集)“无法区分”的水平(MOS 4.34 vs. 4.30),这是生成式语音增强领域一个重要的里程碑。 短板:模型(335M参数)相比多数基线更庞大,且依赖32步的扩散采样,实时性可能受限,其“高保真”优势在资源受限场景下的实用性有待考量;此外,尽管使用了离散编解码器进行后处理,但核心的连续潜在空间扩散仍面临VAE重建瓶颈(如VBD数据集上VAE重建分数低于原生48kHz音频)。 ...

2026-04-29

DiTSinger: Scaling Singing Voice Synthesis with Diffusion Transformer and Implicit Alignment

📄 DiTSinger: Scaling Singing Voice Synthesis with Diffusion Transformer and Implicit Alignment #歌唱语音合成 #扩散模型 #数据增强 #隐式对齐 ✅ 7.0/10 | 前25% | #歌唱语音合成 | #扩散模型 | #数据增强 #隐式对齐 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Zongcai Du(咪咕音乐,中国移动通信集团公司) 通讯作者:未说明 作者列表:Zongcai Du(咪咕音乐,中国移动通信集团公司)、Guilin Deng(咪咕音乐,中国移动通信集团公司)、Xiaofeng Guo(咪咕音乐,中国移动通信集团公司)、Xin Gao(咪咕音乐,中国移动通信集团公司)、Linke Li(咪咕音乐,中国移动通信集团公司)、Kaichang Cheng(咪咕音乐,中国移动通信集团公司)、Fubo Han(咪咕音乐,中国移动通信集团公司)、Siyu Yang(咪咕音乐,中国移动通信集团公司)、Peng Liu(咪咕音乐,中国移动通信集团公司)、Pan Zhong(咪咕音乐,中国移动通信集团公司)、Qiang Fu(咪咕音乐,中国移动通信集团公司) 💡 毒舌点评 亮点: 论文提出了一套精巧的“PseudoSinger”数据构建流程,用“固定旋律+LLM生成歌词”的方式规模化生产高质量训练数据,从根源上缓解了SVS领域的数据饥渴问题。短板: 作为核心模型的DiTSinger,其架构本质是DiT在音频领域的直给式应用,隐式对齐机制是主要的架构创新,但整体模型设计的“性感”程度和理论深度稍显不足,更像是一项扎实的工程优化而非范式突破。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:论文中构建了大规模数据集,但未提及是否公开或如何获取。 Demo:提供在线演示链接:https://nju-jet.github.io/DiTSinger/。 复现材料:论文中给出了主要的训练设置(GPU型号、数量、优化器、学习率、batch size、训练步数、数据比例等),但模型具体配置(如各变体的确切层数、宽度表)和部分训练细节(如学习率调度、精确的推理步数)未完全公开。 论文中引用的开源项目:DiffSinger、StyleSinger、TCSinger、M4Singer、HiFi-GAN、DPM-Solver。 📌 核心摘要 这篇论文旨在解决歌唱语音合成(SVS)领域面临的训练数据稀缺和对齐标签依赖两大挑战。 论文方法的核心包含两部分:1)提出一个两阶段的数据构建管道,通过固定旋律并利用大语言模型(LLM)生成多样歌词,先训练“PseudoSinger”模型,再用其合成大规模(500小时)数据,显著扩充了训练语料。2)设计了DiTSinger模型,一个基于扩散Transformer(DiT)的潜在扩散模型,并引入了一个隐式对齐机制,通过限制音素注意力范围来消除对显式音素时长标注的依赖。 与已有方法相比,新在:a) 首次在SVS领域系统性地构建了用于模型训练的大规模合成数据管道;b) 将可扩展的DiT架构引入SVS,并验证了模型和数据的规模效应;c) 提出了一种不依赖显式时长标签的隐式对齐方法,提升了鲁棒性。 主要实验结果显示,随着模型规模(从Small到Large)和训练数据量(从30h到530h)的增加,合成质量(以MCD衡量)持续提升(见图3)。最终的DiTSinger L2模型在MOS(4.02)上超过了DiffSinger(3.80)、StyleSinger(3.62)和TCSinger(3.89),同时在F0RMSE(11.18 Hz)等客观指标上也取得了最优结果(见表2)。 该工作的实际意义在于提供了一条可扩展的、减少人工标注依赖的高质量歌唱数据合成与模型训练路径。其主要局限性在于:研究仅限于中文数据集,且模型忽略了如演唱技巧等更复杂的风格因素。 ...

2026-04-29

Diverse and Few-Step Audio Captioning via Flow Matching

📄 Diverse and Few-Step Audio Captioning via Flow Matching #音频字幕生成 #流匹配 #音频生成 #高效生成 #可控生成 ✅ 6.5/10 | 前50% | #音频字幕生成 | #流匹配 | #音频生成 #高效生成 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(论文仅列出作者姓名,未明确标注第一作者) 通讯作者:未说明 作者列表:Naoaki Fujita(Panasonic Holdings Corporation, Osaka, Japan)、Hiroki Nakamura(Panasonic Holdings Corporation, Osaka, Japan)、Kosuke Itakura(Panasonic Holdings Corporation, Osaka, Japan) 💡 毒舌点评 亮点:首次将流匹配(Flow Matching)引入自动音频字幕生成,实验证明其在大幅减少采样步数(最高25倍)的同时,能保持甚至超越扩散基线的准确性和多样性,效率提升显著。 短板:研究局限于替换生成过程的“最后一公里”,模型架构(BART解码器、BEATs编码器)直接沿用前人工作;更关键的是,论文未开源代码与模型,且未提供训练硬件与时间,严重削弱了其实用价值和可复现性。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:使用的是公开数据集Clotho和AudioCaps,但论文未说明其具体获取或预处理方式。 Demo:未提及。 复现材料:提供了算法伪代码(Algorithm 1, 2)和主要训练超参数(优化器、学习率、batch size等)。但缺失模型架构细节(如层数、维度)、硬件信息、完整配置文件。 论文中引用的开源项目:使用了预训练的 BEATs [22] 音频编码器和 BART [12] 语言解码器。评估工具使用了 aac-metrics 库。 总结:论文中未提及开源计划。 📌 核心摘要 要解决的问题:现有的基于扩散模型的多样化音频字幕生成方法,因需要数百步迭代去噪而导致推理计算成本高、速度慢,难以满足实时或大规模处理需求。减少步数则会显著损害生成质量。 方法核心:提出首个基于流匹配的音频字幕生成框架(FAC),直接预测从噪声到字幕表示的确定性、线性传输路径,从而用少量采样步数完成生成。 与已有方法相比新在哪里:完全用流匹配替代了扩散过程。与基于迭代去噪的扩散模型不同,流匹配学习的是近乎直线的概率路径,使得生成过程更高效、稳定。 主要实验结果:在Clotho和AudioCaps数据集上,FAC在30步甚至10步采样下的准确性和多样性指标,与扩散基线(250步)相当或更优。例如,在Clotho上,10步FAC的SPIDEr(0.257)优于250步基线(0.247)。推理时间从每样本2.28秒(250步)降至0.19秒(10步),提速约12倍。通过调节训练时的噪声尺度σ,可以在不增加推理成本的情况下控制生成多样性。 实际意义:为高效、可控的多样化音频字幕生成提供了新方案,降低了流式或实时应用中的延迟和计算开销。 主要局限性:未开源代码和模型;未报告训练硬件与时间;作为首个应用,流匹配在音频字幕任务上的潜力和边界有待进一步探索;实验主要聚焦于生成过程,未改进音频编码器和语言解码器本身。 🏗️ 模型架构 FAC的整体架构遵循DAC-RLD流水线,如图1所示。其核心是用一个流匹配模块替代了原有的扩散去噪模块。 ...

2026-04-29