Bleed No More: Generative Interference Reduction for Musical Recordings

📄 Bleed No More: Generative Interference Reduction for Musical Recordings #音乐源分离 #生成模型 #对抗学习 #数据集 ✅ 7.0/10 | 前25% | #音乐源分离 | #生成模型 | #对抗学习 #数据集 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Rajesh R (University of Illinois Chicago) 通讯作者:未说明 作者列表:Rajesh R (University of Illinois Chicago)、Rashen Fernando (University of Illinois Chicago)、Padmanabhan Rajan (Indian Institute of Technology Mandi)、Ryan M. Corey (University of Illinois Chicago) 💡 毒舌点评 本文精准地切入“干扰消除”而非“源分离”这一细分赛道,用条件生成对抗网络给出了一个干净利落的技术方案,在跨风格测试(印度古典音乐)上展现出不错的泛化能力,是“小题大做”的典范。然而,核心生成器工作在幅度谱上并复用输入相位,这几乎是音频增强领域的“经典妥协”,导致SAR指标普遍偏低,论文对此的讨论止于局限性陈述,未能提出更优的相位处理方案,略显保守。 ...

2026-04-29

Dissecting Performance Degradation in Audio Source Separation under Sampling Frequency Mismatch

📄 Dissecting Performance Degradation in Audio Source Separation under Sampling Frequency Mismatch #音乐源分离 #信号处理 #鲁棒性 #数据增强 ✅ 7.5/10 | 前25% | #音乐源分离 | #信号处理 | #鲁棒性 #数据增强 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Kanami Imamura (东京大学,日本产业技术综合研究所(AIST)) 通讯作者:未说明 作者列表:Kanami Imamura (东京大学,AIST)、Tomohiko Nakamura (AIST)、Kohei Yatabe (东京农工大学)、Hiroshi Saruwatari (东京大学) 💡 毒舌点评 亮点:论文以一种非常“工程化”且易于复现的方式(仅在重采样核中添加高斯噪声)解决了DNN模型对采样率变化的敏感性问题,并验证了其在多个主流模型上的普适性,实用价值很高。短板:理论深度有限,对“为什么添加噪声就能恢复性能”的解释停留在“提供高频成分存在性”的层面,未能更深入地揭示DNN模型内部为何对这种统计特性(而非精确频谱内容)如此敏感。 📌 核心摘要 问题:基于DNN的音频源分离模型通常在单一采样频率下训练。当处理不同采样率的输入时,常用重采样到训练采样率的方法,但这会导致性能下降,尤其是当输入采样率低于训练采样率时。 方法:作者提出两个假设:(i) 上采样导致的高频成分缺失是性能下降的原因;(ii) 高频成分的存在性比其具体频谱内容更重要。为此,他们提出并对比了三种替代重采样方法:后重采样噪声添加(直接在信号上加噪)、噪声核重采样(在插值核上加噪)、可训练核重采样(用DNN参数化插值核)。 创新:与传统重采样方法相比,本工作系统性地分析了性能下降的原因,并提出了一种极其简单却有效的“噪声核重采样”方法。其核心创新在于发现并验证了为重采样信号补充与输入信号相关的高频成分(而非不相关的噪声) 即可有效缓解性能下降。 实验结果:在MUSDB18-HQ数据集上进行音乐源分离实验。基线模型BSRNN在8kHz输入(训练于44.1kHz)下,人声SDR从6.58dB降至3.47dB。使用噪声核重采样后,SDR恢复至6.05dB。在包括Conv-TasNet, BSRNN, Mel-RoFormer在内的多个模型上,噪声核重采样均能缓解常规重采样带来的性能下降(见表1)。可训练核重采样效果类似,而后重采样噪声添加则效果不佳甚至恶化。 实际意义:提供了一种简单、通用且有效的工程解决方案,只需在现有重采样步骤的核函数中添加微小噪声,即可提升DNN音频模型对采样率变化的鲁棒性,便于实际部署。 局限性:研究主要局限于音乐源分离任务,结论在语音增强等其他音频任务上的普适性有待验证。对于可训练核重采样,其训练增加了额外开销。论文未能从根本上提出一种与采样率无关的DNN架构。 🏗️ 模型架构 本文并未提出一个新的分离模型架构,而是专注于研究重采样这一预处理/后处理步骤对现有分离模型性能的影响。其核心架构是DNN音频源分离的通用流水线(如图1(a)所示): ...

2026-04-29

ICASSP 2026 - 音乐源分离 论文列表

ICASSP 2026 - 音乐源分离 共 2 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Dissecting Performance Degradation in Audio Source Separatio 7.5分 前25% 🥈 Bleed No More: Generative Interference Reduction for Musical 7.0分 前25% 📋 论文详情 🥇 Dissecting Performance Degradation in Audio Source Separation under Sampling Frequency Mismatch ✅ 7.5/10 | 前25% | #音乐源分离 | #信号处理 | #鲁棒性 #数据增强 👥 作者与机构 第一作者:Kanami Imamura (东京大学,日本产业技术综合研究所(AIST)) 通讯作者:未说明 作者列表:Kanami Imamura (东京大学,AIST)、Tomohiko Nakamura (AIST)、Kohei Yatabe (东京农工大学)、Hiroshi Saruwatari (东京大学) 💡 毒舌点评 ...

2026-04-29

Training-Free Inference-Time Scaling for Audio Source Separation

📄 Training-Free Inference-Time Scaling for Audio Source Separation #语音增强 #音乐源分离 #预训练 #数据增强 ✅ 7.5/10 | 前25% | #语音增强 | #预训练 | #音乐源分离 #数据增强 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yongyi Zang (Independent Researcher) 通讯作者:未说明(论文中未明确指定) 作者列表:Yongyi Zang (Independent Researcher), Jingyi Li (University of Illinois Urbana-Champaign), Qiuqiang Kong (The Chinese University of Hong Kong) 💡 毒舌点评 这篇论文巧妙地将“推理时缩放”概念跨界移植到音频分离,通过简单的混合比例搜索让旧模型焕发新生,堪称“炼丹界的低成本改装大师”。其理论证明了性能下限,实验也显示在多个任务上“免费”提升了效果。不过,其效果高度依赖于搜索阶段使用的“裁判”(度量指标)是否靠谱,若指标选择不当或不可用,方法就可能失灵,这无异于把宝都押在了“裁判的公正性”上。 📌 核心摘要 问题:传统的音频源分离模型通常采用单步推理,无法像扩散模型那样通过迭代精炼来提升性能,而专门训练多步模型又成本高昂。 方法核心:提出一种无需训练的推理时间缩放方法。该方法将预训练的单步分离模型转换为多步系统:在每一步,将原始混合信号与上一步的估计输出以不同比例混合,生成多个候选输入,通过模型前向传播后,选择使某个质量指标(如PESQ, UTMOS)最大化的比例作为最优混合,并得到当前步的最佳估计,以此迭代精炼。 新意:首次将“推理时间缩放”范式引入音频源分离;通过理论分析(性能下界、误差界)证明了方法的有效性和稳定性;揭示了该方法与去噪扩散桥模型的内在联系,为方法的成功提供了理论解释。 实验结果:在语音增强(VCTK-DEMAND, DNS Challenge V3)和音乐源分离(MUSDB18-HQ)任务上,该方法在大多数指标上持续优于单步基线。关键数据示例如下: 表1:语音增强性能对比(VCTK-DEMAND - 侵入式指标) ...

2026-04-29