Diff-vs: Efficient Audio-Aware Diffusion U-Net for Vocals Separation

📄 Diff-vs: Efficient Audio-Aware Diffusion U-Net for Vocals Separation #语音分离 #扩散模型 #U-Net #数据增强 #音频生成 ✅ 7.5/10 | 前25% | #语音分离 | #扩散模型 | #U-Net #数据增强 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yun-Ning (Amy) Hung (Moises, USA) 通讯作者:未说明 作者列表:Yun-Ning (Amy) Hung (Moises, USA), Richard Vogl (Moises, USA), Filip Korzeniowski (Moises, USA), Igor Pereira (Moises, USA) 💡 毒舌点评 亮点:论文巧妙地将针对图像生成优化的EDM框架“移植”到音频分离,并通过带分离和双路径RoFormer等音乐领域知识进行“魔改”,成功将扩散模型的推理步数压至个位数,在生成式方法中实现了SOTA性能。短板:虽然在自家构建的生成式对比阵营中鹤立鸡群,但一旦面对经过大规模数据洗礼的判别式“怪兽”(如BS-RoFormer),在客观指标上依然力有不逮,生成式范式在音乐分离上的“逆天改命”之路仍需努力。 📌 核心摘要 问题:当前基于生成式扩散模型的音乐源分离方法,在标准客观指标(如SDR)上通常落后于判别式方法,且推理步数多、模型庞大,限制了其实用性。 方法:本文提出Diff-VS,一个基于Elucidated Diffusion Model (EDM)框架的高效音频感知扩散U-Net模型,专门用于人声分离。模型输入为经过特殊归一化的复数频谱图,并采用带分离和双路径RoFormer块改进的U-Net架构。 创新:首次将EDM框架应用于人声分离,实现了少于10步的高效推理;提出针对音乐信号特性的架构改进(如用双路径RoFormer替换像素自注意力);实验证明生成式方法能达到与判别式方法竞争力的客观指标和更优的感知质量。 实验结果:在MUSDB18-HQ数据集上,仅需7步推理的Diff-VS达到了10.12 dB的cSDR,超越了所有已对比的生成式模型(最高为SGMSE的8.63 dB),并接近SCNet-L (10.86 dB) 等顶尖判别式模型。在基于MERT嵌入的感知质量评估中,Diff-VS (MSE=0.083) 优于SCNet-L (0.096) 和SGMSE (0.089)。 实际意义:该工作证明了经过精心设计的生成式模型,可以在保持分离质量(特别是感知质量)的同时,大幅提升推理效率,为生成式方法在音频分离领域的实际应用提供了可能。 主要局限性:在使用更多数据(MoisesDB)训练的最强判别式模型(如BS-RoFormer-12L)面前,客观性能仍有明显差距;模型目前仅针对人声分离,未验证其在多乐器分离任务上的能力;缺乏对生成多样性的讨论和评估。 🏗️ 模型架构 Diff-VS的整体架构基于EDM框架下的改进型DDPM++ U-Net。 ...

2026-04-29

Diffusion Timbre Transfer via Mutual Information Guided Inpainting

📄 Diffusion Timbre Transfer via Mutual Information Guided Inpainting #音乐生成 #音频生成 #扩散模型 #零样本 ✅ 7.5/10 | 前25% | #音乐生成 | #扩散模型 | #音频生成 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Ching Ho Lee(Queen Mary University of London) 通讯作者:未说明 作者列表:Ching Ho Lee(Queen Mary University of London)、Javier Nistal(Sony Computer Science Laboratories, Paris, France)、Stefan Lattner(Sony Computer Science Laboratories, Paris, France)、Marco Pasini(Queen Mary University of London;Sony Computer Science Laboratories, Paris, France)、George Fazekas(Queen Mary University of London) 💡 毒舌点评 亮点:该方法巧妙地将“免训练”和“推理时控制”结合,通过互信息分析“外科手术式”地定位音色通道,再用扩散模型的采样特性来“手术”,在保持旋律节奏和改变音色之间找到了一个精巧的平衡点。短板:这种基于统计的通道解缠在实际复杂音频上可能不够完美(论文中k值仍需调优),且极度依赖底层编码器M2L2和扩散模型DaR的特定性质,方法的普适性和鲁棒性有待更广泛验证。 ...

2026-04-29

Disentangling Physiology from Fidelity: Latent-Guided Diffusion Models for Cross-Modal Cardiac Synthesis

📄 Disentangling Physiology from Fidelity: Latent-Guided Diffusion Models for Cross-Modal Cardiac Synthesis #音频生成 #扩散模型 #状态空间模型 #数据增强 #跨模态 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #状态空间模型 #数据增强 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Chenyang Xu(西安电子科技大学 网络安全学院) 通讯作者:Hao Wang(西安电子科技大学 网络安全学院) 作者列表:Chenyang Xu(西安电子科技大学 网络安全学院)、Siming Li(西安电子科技大学 电信工程学院)、Wensai Xuan(西安电子科技大学 机电工程学院)、Hao Wang(西安电子科技大学 网络安全学院) 💡 毒舌点评 亮点:论文巧妙地将“内容”(生理状态)与“风格”(信号波形)解耦,其潜在空间t-SNE可视化(图4)首次提供了学习到的生理状态分离的直观证据,这是一个令人信服的贡献。短板:方法的有效性高度依赖于配对、同步且状态标注清晰的高质量数据(如Ephnogram),在真实世界更嘈杂、异构的临床数据中的泛化能力存疑,而论文未对此进行任何讨论或验证。 📌 核心摘要 要解决的问题:心电图(ECG)与心音图(PCG)的跨模态合成对于综合心血管评估至关重要,但面临长程依赖建模和保持临床保真度的挑战。 方法核心:提出Mamba-Diff-VAE两阶段框架。第一阶段,共享的Mamba-VAE编码器将输入信号编码到一个捕获核心生理内容的结构化共享潜在空间。第二阶段,条件Mamba扩散解码器在潜在代码和元数据(如生理状态)的引导下,生成高保真的目标波形。 与已有方法相比新在哪里:不同于直接端到端的条件扩散模型,该工作明确将“内容表示”与“波形生成”解耦。使用Mamba替代Transformer处理长序列,具有线性复杂度优势。并且首次实证了学习到的潜在空间能有意义地区分生理状态(如静息与运动后)。 主要实验结果:在Ephnogram数据集上,该方法在ECG-to-PCG和PCG-to-ECG双向合成任务上均取得SOTA。与最强基线SSSM-Diff相比,在ECG-to-PCG任务上MSE降低40%(0.149 vs 0.089),相关性提高13%(0.745 vs 0.847);在PCG-to-ECG任务上MSE降低35%(0.173 vs 0.112)。消融研究(表2)证实了VAE组件和共享编码器的关键作用。 实际意义:该框架可用于生成高质量的合成心脏信号进行数据增强,提升下游诊断模型性能;其结构化潜在空间为心脏生理状态建模和潜在生物标志物发现提供了新途径。 主要局限性:研究仅基于一个公开数据集(Ephnogram)和健康/运动状态,未在病理数据集上验证泛化性;潜在空间分析主要停留在t-SNE可视化层面;推理过程未针对临床实时性进行优化。 🏗️ 模型架构 论文提出的Mamba-Diff-VAE是一个两阶段生成框架,旨在实现ECG和PCG信号的双向合成。其整体架构如图1所示。 ...

2026-04-29

Diverse and Few-Step Audio Captioning via Flow Matching

📄 Diverse and Few-Step Audio Captioning via Flow Matching #音频字幕生成 #流匹配 #音频生成 #高效生成 #可控生成 ✅ 6.5/10 | 前50% | #音频字幕生成 | #流匹配 | #音频生成 #高效生成 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(论文仅列出作者姓名,未明确标注第一作者) 通讯作者:未说明 作者列表:Naoaki Fujita(Panasonic Holdings Corporation, Osaka, Japan)、Hiroki Nakamura(Panasonic Holdings Corporation, Osaka, Japan)、Kosuke Itakura(Panasonic Holdings Corporation, Osaka, Japan) 💡 毒舌点评 亮点:首次将流匹配(Flow Matching)引入自动音频字幕生成,实验证明其在大幅减少采样步数(最高25倍)的同时,能保持甚至超越扩散基线的准确性和多样性,效率提升显著。 短板:研究局限于替换生成过程的“最后一公里”,模型架构(BART解码器、BEATs编码器)直接沿用前人工作;更关键的是,论文未开源代码与模型,且未提供训练硬件与时间,严重削弱了其实用价值和可复现性。 📌 核心摘要 要解决的问题:现有的基于扩散模型的多样化音频字幕生成方法,因需要数百步迭代去噪而导致推理计算成本高、速度慢,难以满足实时或大规模处理需求。减少步数则会显著损害生成质量。 方法核心:提出首个基于流匹配的音频字幕生成框架(FAC),直接预测从噪声到字幕表示的确定性、线性传输路径,从而用少量采样步数完成生成。 与已有方法相比新在哪里:完全用流匹配替代了扩散过程。与基于迭代去噪的扩散模型不同,流匹配学习的是近乎直线的概率路径,使得生成过程更高效、稳定。 主要实验结果:在Clotho和AudioCaps数据集上,FAC在30步甚至10步采样下的准确性和多样性指标,与扩散基线(250步)相当或更优。例如,在Clotho上,10步FAC的SPIDEr(0.257)优于250步基线(0.247)。推理时间从每样本2.28秒(250步)降至0.19秒(10步),提速约12倍。通过调节训练时的噪声尺度σ,可以在不增加推理成本的情况下控制生成多样性。 实际意义:为高效、可控的多样化音频字幕生成提供了新方案,降低了流式或实时应用中的延迟和计算开销。 主要局限性:未开源代码和模型;未报告训练硬件与时间;作为首个应用,流匹配在音频字幕任务上的潜力和边界有待进一步探索;实验主要聚焦于生成过程,未改进音频编码器和语言解码器本身。 🏗️ 模型架构 FAC的整体架构遵循DAC-RLD流水线,如图1所示。其核心是用一个流匹配模块替代了原有的扩散去噪模块。 ...

2026-04-29

EuleroDec: A Complex-Valued RVQ-VAE for Efficient and Robust Audio Coding

📄 EuleroDec: A Complex-Valued RVQ-VAE for Efficient and Robust Audio Coding #音频生成 #自编码器 #复数值 #音频编码 🔥 8.0/10 | 前25% | #音频生成 | #自编码器 | #复数值 #音频编码 学术质量 8.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Luca Cerovaz (Sapienza University of Rome) 通讯作者:Emanuele Rodolà (Sapienza University of Rome, Paradigma) 作者列表:Luca Cerovaz (Sapienza University of Rome), Michele Mancusi (Moises Systems Inc.), Emanuele Rodolà (Sapienza University of Rome, Paradigma) 💡 毒舌点评 亮点在于其优雅的理论动机——完全在复数域操作以自然地保留音频的相位-幅度耦合,这直接消除了对复杂且不稳定的GAN训练的依赖,实现了令人印象深刻的训练效率提升(仅需5万步,减少了约95%的计算)。短板是其评估完全局限于LibriTTS一个数据集,尽管分了域内/域外,但应用场景相对狭窄,且论文未提供代码或模型,极大地影响了社区验证和实际应用。 ...

2026-04-29

Feedback-Driven Retrieval-Augmented Audio Generation with Large Audio Language Models

📄 Feedback-Driven Retrieval-Augmented Audio Generation with Large Audio Language Models #音频生成 #检索增强 #大型音频模型 #扩散模型 ✅ 6.5/10 | 前25% | #音频生成 | #检索增强 | #大型音频模型 #扩散模型 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Junqi Zhao(University of Surrey, CVSSP;Tencent AI Lab, Beijing) 通讯作者:Wenwu Wang(University of Surrey, CVSSP) 作者列表: Junqi Zhao(University of Surrey, CVSSP;Tencent AI Lab, Beijing) Chenxing Li(Tencent AI Lab, Beijing) Jinzheng Zhao(University of Surrey, CVSSP;Tencent AI Lab, Beijing) Rilin Chen(Tencent AI Lab, Beijing) Dong Yu(Tencent AI Lab, Seattle) Mark D. Plumbley(University of Surrey, CVSSP) Wenwu Wang(University of Surrey, CVSSP) (通讯作者) 💡 毒舌点评 亮点在于其“反馈驱动”的框架设计很巧妙,让一个大型音频模型(LALM)去检查另一个生成模型(TTA)的作业,找出了“漏写的声音”,然后去资料库(检索数据库)里找参考答案补上,实现了一种通用且低成本的性能增强。短板是这套流程的“下限”严重依赖那个外部资料库(音频数据库)的全面性和质量,论文中并未充分探讨当数据库里没有合适参考或LALM“找错题”时的容错机制,且评估指标虽然全面,但未能揭示在极端复杂音频场景下的具体失效模式。 ...

2026-04-29

FlashFoley: Fast Interactive Sketch2audio Generation

📄 FlashFoley: Fast Interactive Sketch2audio Generation #音频生成 #流匹配 #对抗训练 #实时处理 ✅ 7.5/10 | 前25% | #音频生成 | #流匹配 | #对抗训练 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Zachary Novack (UC San Diego; Sony Group Corporation, Japan) 通讯作者:Christian Simon† (Sony AI, USA) (论文中标注†为“Project lead”,通常可视为通讯作者) 作者列表:Zachary Novack¹,²,Koichi Saito³,Zhi Zhong²,Takashi Shibuya³,Shuyang Cui²,Julian McAuley¹,Taylor Berg-Kirkpatrick¹,Christian Simon²†,Shusuke Takahashi²,Yuki Mitsufuji²,³ ¹ UC – San Diego ² Sony Group Corporation, Japan ³ Sony AI, USA 💡 毒舌点评 亮点:这篇论文精准地切中了当前交互式音频生成工具的一个核心痛点——“精细控制”与“实时速度”不可兼得,并给出了一个工程上巧妙且相对完整的解决方案,首次将开源加速的草图到音频模型带入实时交互场景。 短板:虽然方法组合很实用,但核心的“创新”更多是已有技术(草图控制、ARC后训练、流式生成)的整合与适配,缺乏根本性的理论突破;另外,文中“开源”的承诺尚未在论文发布时兑现,这削弱了其作为“首个开源”模型的即时影响力。 ...

2026-04-29

FODGE : High-Fidelity Dance Generation via Full-Body Optimization

📄 FODGE : High-Fidelity Dance Generation via Full-Body Optimization #音频生成 #扩散模型 #全身优化 ✅ 6.5/10 | 前50% | #音频生成 | #扩散模型 | #全身优化 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Xiaoying Huang(中国传媒大学信息与通信工程学院) 通讯作者:Long Ye(中国传媒大学数据科学与媒体智能学院, 媒体融合与传播国家重点实验室) 作者列表:Xiaoying Huang(中国传媒大学信息与通信工程学院)、Sanyi Zhang(中国传媒大学数据科学与媒体智能学院, 媒体音视频教育部重点实验室)、Qin Zhang(媒体音视频教育部重点实验室)、Xiaoxuan Guo(中国传媒大学信息与通信工程学院)、Long Ye(中国传媒大学数据科学与媒体智能学院, 媒体融合与传播国家重点实验室) 💡 毒舌点评 论文的亮点在于清晰地指出了现有方法将“滑步”一律视为错误的问题,并通过设计优雅的FRB模块来区分和保留艺术性滑步,同时将约束从脚部拓展至全身,实验效果显著。短板在于其核心生成架构(两阶段Transformer扩散网络)几乎是LODGE的复用,创新更多体现在“约束”和“后处理”上,属于针对特定问题的工程优化而非范式突破,且完全未开源。 📌 核心摘要 要解决什么问题:现有音乐驱动的舞蹈生成方法在追求物理真实性时(如消除滑步),会错误地抑制舞蹈中固有的艺术性滑步(如太空步),同时忽视了手臂穿透等局部不自然问题,损害了生成舞蹈的艺术表现力。 方法核心是什么:提出FODGE框架,包含两部分:(1) Full-body Refinement Block (FRB):在扩散模型训练时引入,通过学习脚部滑动与手臂运动的相关性作为优化线索,联合约束四肢动作,以消除手臂穿透等伪影并保留艺术滑步。(2) Full-body Optimization Post-processing module (FOP):一个免训练的后处理模块,在推理后对整个序列进行校正,包括修正段落衔接不连续、基于物理先验调整全局根轨迹以缓解滑步,以及约束头部旋转至生理合理范围。 与已有方法相比新在哪里:a) 理念更新:不再将所有滑步视为需消除的伪影,而是通过学习相关性来区分并保留艺术表达性的滑步。b) 优化范围扩展:从仅优化脚部(如LODGE的Foot Refine Block)扩展到同时优化手臂和脚部,进行全身联合约束。c) 引入免训练后处理:FOP模块作为一个独立、确定性的后处理步骤,从序列整体角度进一步提升连贯性和合理性。 主要实验结果如何:在FineDance数据集上,FODGE在运动质量指标上显著优于Bailando、EDGE和LODGE。具体关键数据如下表所示。FODGE取得了最佳的FIDk (38.21) 和 FIDg (27.46),表明生成的舞蹈姿态最接近真实分布。其脚部滑动率 (FSR) 降至2.38%,比LODGE (2.76%) 进一步降低。同时,它在音乐-舞蹈对齐分数 (BAS) 上达到最高的0.2509,说明在保证真实性的前提下,更好地平衡了与音乐的契合度。消融实验显示,移除FRB会导致FIDk和FSR大幅恶化,证明其对生成合理性至关重要。 ...

2026-04-29

FoleyBench: A Benchmark for Video-to-Audio Models

📄 FoleyBench: A Benchmark for Video-to-Audio Models #音频生成 #基准测试 #音视频 #多模态模型 ✅ 7.5/10 | 前25% | #音频生成 | #基准测试 | #音视频 #多模态模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Satvik Dixit(Carnegie Mellon University) 通讯作者:未说明 作者列表:Satvik Dixit (Carnegie Mellon University), Koichi Saito (Sony AI), Zhi Zhong (Sony AI), Yuki Mitsufuji (Sony AI, Sony Group Corporation), Chris Donahue (Carnegie Mellon University) 💡 毒舌点评 论文精准地指出了现有V2A评估基准(如VGGSound)在Foley场景下的核心缺陷(74%样本音画对应差),并针对性地提出了首个专用基准,分析深入且实用。然而,其数据集构建管道严重依赖商业模型(Gemini 2.5 Pro)进行质量过滤,这不仅增加了复现成本,也使得“可扩展自动化”的宣称打了一定折扣。 📌 核心摘要 要解决什么问题:现有的视频到音频(V2A)生成模型评估基准(如VGGSound)与Foley(音效)等实际下游应用严重脱节。分析发现,VGGSound中74%的视频音画对应关系差,且内容被语音和音乐主导,无法有效评估专为视觉事件生成同步音效的模型。 方法核心是什么:提出FoleyBench,首个大规模、专门针对Foley场景的V2A评估基准。它包含5000个经过自动筛选的高质量(视频、真实音频、文本描述)三元组。其核心是一个自动化的多阶段数据集构建管道:收集网络视频 -> 场景检测与裁剪 -> 通过YAMNet过滤语音/音乐 -> 使用Gemini 2.5 Pro筛选确保音画因果关系。 与已有方法相比新在哪里:(1)定义并专注于Foley场景(非语音、非音乐、音源可见且同步),填补了专用基准的空白;(2)设计了包含AudioSet和UCS标签、声源复杂度、声音包络类型等丰富元数据的标注体系,支持细粒度分析;(3)提供了包含650个30秒长视频的子集FoleyBench-Long,以评估长音频生成能力。 主要实验结果如何: 基准对比:与VGGSound相比,FoleyBench的Foley类别覆盖更广(Shannon熵5.35 vs 4.73),且评估结果相关性在音频保真度指标上较弱,说明其能提供不同的评估视角。 模型评估:在对11个SotA V2A模型的评估中,MMAudio在多数指标上表现最佳,Seeing & Hearing在语义对齐(IB)上最优,V-AURA在时序同步(DS)上次优。主要发现包括:模型在生成离散事件音时,同步变好但质量变差;在处理背景音和多源声音时性能显著下降;文本条件能提供关键的语义先验。 长视频评估:在FoleyBench-Long上,所有模型性能普遍下降,MMAudio仍保持同步优势,但音频质量大幅下滑;而专为长视频设计的LOVA在音频质量上表现相对较好。 关键数据表格: 方法 VGGSound IB↑ FoleyBench IB↑ FoleyBench DS↓ FoleyBench FAD↓ FoleyBench IS↑ V-AURA 0.276 0.237 0.716 27.2 6.44 Seeing&Hearing 0.339 0.371 1.08 25.0 4.80 MMAudio^T 0.332 0.306 0.447 8.76 11.2 实际意义是什么:为V2A研究社区,特别是Foley合成方向,提供了一个更可靠、更贴近应用的评估标准,有助于更准确地衡量模型进展,并指明未来改进方向(如提升离散事件音保真度、处理多源/背景音、长时生成)。 主要局限性是什么:(1)数据集构建核心环节依赖商业黑箱模型(Gemini),可复现性和透明度受限;(2)虽然分析了失败模式,但并未提出解决这些核心挑战(如多源声音混合、长时一致性)的新模型或算法。 🏗️ 模型架构 本文并未提出一个新的V2A生成模型,而是提出了一个用于评估现有模型的基准测试框架。因此,其核心“架构”是数据集构建管道与评估体系。 ...

2026-04-29

FxSearcher: Gradient-Free Text-Driven Audio Transformation

📄 FxSearcher: Gradient-Free Text-Driven Audio Transformation #音频生成 #贝叶斯优化 #CLAP #音频效果处理 #无梯度优化 ✅ 7.0/10 | 前50% | #音频生成 | #贝叶斯优化 | #CLAP #音频效果处理 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Hojoon Ki (Korea Advanced Institute of Science and Technology, KAIST) 通讯作者:未说明 作者列表:Hojoon Ki (Korea Advanced Institute of Science and Technology, KAIST), Jongsuk Kim (Korea Advanced Institute of Science and Technology, KAIST), Minchan Kwon (Korea Advanced Institute of Science and Technology, KAIST), Junmo Kim (Korea Advanced Institute of Science and Technology, KAIST) 💡 毒舌点评 这篇论文巧妙地将贝叶斯优化与CLAP结合,绕过了音频效果链必须可微的“紧箍咒”,为文本驱动音频变换打开了一扇新门,其工程思路可圈可点。然而,其核心理论贡献(如“引导提示”策略)更像是一种经验性的启发式技巧,缺乏更深入的理论分析或广泛的适用性证明,使其更像是一个精心调优的“系统工程”而非一个具有深远影响力的理论突破。 ...

2026-04-29