ICASSP 2026 - 音频增强 论文列表

ICASSP 2026 - 音频增强 共 3 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 MixGAN-based Non-blind Bandwidth Extension for Audio Codec 8.0分 前25% 🥈 SAGA-SR: Semantically and Acoustically Guided Audio Super-Re 7.5分 前25% 🥉 Subspace Hybrid Adaptive Filtering for Phonocardiogram Signa 7.0分 前50% 📋 论文详情 🥇 MixGAN-based Non-blind Bandwidth Extension for Audio Codec 🔥 8.0/10 | 前25% | #音频增强 | #生成对抗网络 | #音频编解码器 #非盲 👥 作者与机构 第一作者:Hao Guo(华为中央媒体技术研究院,清华大学深圳国际研究生院) 通讯作者:Wenbo Ding(清华大学深圳国际研究生院,邮箱:ding.wenbo@sz.tsinghua.edu.cn) 作者列表:Hao Guo(华为中央媒体技术研究院,清华大学深圳国际研究生院)、BingYin Xia(华为中央媒体技术研究院)、Xiao-Ping Zhang(清华大学深圳国际研究生院)、Wenbo Ding(清华大学深圳国际研究生院) 💡 毒舌点评 ...

2026-04-29

MixGAN-based Non-blind Bandwidth Extension for Audio Codec

📄 MixGAN-based Non-blind Bandwidth Extension for Audio Codec #音频增强 #生成对抗网络 #音频编解码器 #非盲 #实时处理 🔥 8.0/10 | 前25% | #音频增强 | #生成对抗网络 | #音频编解码器 #非盲 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Hao Guo(华为中央媒体技术研究院,清华大学深圳国际研究生院) 通讯作者:Wenbo Ding(清华大学深圳国际研究生院,邮箱:ding.wenbo@sz.tsinghua.edu.cn) 作者列表:Hao Guo(华为中央媒体技术研究院,清华大学深圳国际研究生院)、BingYin Xia(华为中央媒体技术研究院)、Xiao-Ping Zhang(清华大学深圳国际研究生院)、Wenbo Ding(清华大学深圳国际研究生院) 💡 毒舌点评 本文首次将非盲AI带宽扩展(BWE)方案系统性地落地到音频编解码器框架中,并通过MixGAN创新性地解决了GAN训练在频谱扩展任务上易崩溃的难题,工程导向明确且效果显著。然而,论文对核心侧信息模型(side model)的“AI-based”部分描述过于简略(仅提到5个ConvM和1个MLP),且训练数据集描述模糊(“130小时以中文歌曲为主”),这给工作通用性的评估和完整复现埋下了隐患。 📌 核心摘要 问题:现有的AI带宽扩展(BWE)方法很少考虑集成到实际音频编解码器时面临的约束,如比特流兼容性、处理延迟和解码失真。 方法:本文提出了首个面向音频编解码器的非盲AI-BWE框架。该框架在编码端提取少量比特的侧信息(包括频带包络和侧特征),在解码端以低延迟帧处理方式(2048样本,43ms)利用该信息引导从低频重建高频。核心创新是提出了MixGAN框架(通过线性插值混合真实与生成帧来训练判别器)和三阶段训练策略(单帧预热、单帧对抗、重叠优化)。 创新点:1) 首个解决编解码器实际约束的非盲AI-BWE方案;2) MixGAN稳定了对抗训练,提升了重建保真度;3) 模型对量化失真具有固有鲁棒性。 实验:在8kHz->24kHz的BWE任务上,与多种AI方法(HiFi-GAN+, NU-Wave2)和标准方法(EVS)对比。在语音和音频测试集上,所提方法(Non-blind BWE)取得了最佳的MUSHRA主观评分(语音84.44,音频84.28)和最低的LSD客观指标(语音0.846,音频0.663)。同时,其浮点运算量(FLOPs)和实时因子(RTF)远低于其他AI基线,计算效率高。 方案 语音 MUSHRA↑ 语音 LSD↓ 音频 MUSHRA↑ 音频 LSD↓ 解码LF (基准) 55.25 1.418 46.75 3.055 HiFi-GAN+ 54.84 1.561 40.63 1.686 NU-Wave2 59.72 1.664 48.44 2.161 EVS (规则) 77.44 0.980 76.72 1.051 Blind BWE 74.66 1.077 74.56 0.840 Non-blind BWE (Vanilla) 69.52 0.915 66.32 0.725 Non-blind BWE (Proposed) 84.44 0.846 84.28 0.663 (图4显示,在复杂频谱结构的交响乐片段中,所提方法(e)能准确恢复谐波细节,而HiFi-GAN+(a)和NU-Wave2(b)表现较差。) ...

2026-04-29

SAGA-SR: Semantically and Acoustically Guided Audio Super-Resolution

📄 SAGA-SR: Semantically and Acoustically Guided Audio Super-Resolution #音频增强 #扩散模型 #流匹配 #生成模型 ✅ 7.5/10 | 前25% | #音频增强 | #扩散模型 | #流匹配 #生成模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Jaekwon Im(KAIST 文化技术研究生院) 通讯作者:未说明 作者列表:Jaekwon Im(KAIST 文化技术研究生院)、Juhan Nam(KAIST 文化技术研究生院) 💡 毒舌点评 这篇论文的亮点在于巧妙地将文本语义信息和频谱滚降这一物理特征结合,作为扩散模型的双重引导,有效解决了通用音频超分辨率中“对齐差”和“高频能量不稳定”这两大痛点。不过,论文在训练硬件、具体模型参数量等复现关键信息上完全缺失,对于想复现其成果的同行来说,这无异于只给了地图却没标比例尺,实用性打了折扣。 📌 核心摘要 问题:现有的通用音频超分辨率方法(如AudioSR、FlashSR)在重建高频时,常出现语义不匹配(如生成不自然的齿音)和高频能量分布不一致的问题。 方法核心:提出SAGA-SR模型,基于DiT(Diffusion Transformer)架构和流匹配(Flow Matching)目标进行训练。其核心创新在于引入了双重条件引导:(1)由音频生成的文本描述提供的语义嵌入;(2)由输入和目标音频的频谱滚降频率提供的声学嵌入。 新颖之处:首次在音频超分辨率任务中系统性地引入了基于文本的语义引导,解决了现有方法生成音频语义失真的问题;同时,引入了频谱滚降这一可量化的声学特征,为模型提供了明确的高频能量分布指导,并允许用户在推理时通过单一标量控制输出音频的高频能量。 主要结果:在语音、音乐、音效三个领域的测试中,SAGA-SR在所有客观指标(LSD、FD)和主观评估分数上均优于AudioSR和FlashSR。例如,在主观评估中,SAGA-SR在音效任务上得分3.88,显著高于FlashSR的3.34。消融实验证实了文本嵌入和频谱滚降嵌入的有效性。 实际意义:SAGA-SR提供了一个能够处理任意输入采样率(4-32 kHz)并统一上采样到44.1 kHz的通用音频增强工具,其可控的高频能量生成特性使其在音频修复、后期制作等场景中具有应用潜力。 主要局限性:模型对于包含多个重叠声源的复杂音频的处理能力有限;后处理中的低频替换操作可能引入频段间的不自然连接。 🏗️ 模型架构 SAGA-SR的整体架构(图1)是一个以条件DiT为核心的生成模型,包含以下流程: 输入处理:输入低分辨率音频($x_l$)和目标高分辨率音频($x_h$)。它们首先通过预训练的VAE编码器被压缩成潜在表示 $z_l$ 和 $z_h$。 条件提取: 文本条件:利用Qwen2-Audio模型从音频(训练时用$x_h$,推理时用$x_l$)生成文本描述$c$,再通过预训练的T5-base编码器提取文本嵌入。 声学条件:计算$x_h$和$x_l$的频谱滚降频率($f_h$, $f_l$),归一化到[0,1)后,通过可学习的傅里叶嵌入转换为嵌入向量。 核心生成模型(DiT): 模型采用DiT架构,以流匹配为目标进行训练。训练时,向量场$u_θ$学习将噪声$z_0$和数据$z_1$之间的线性插值路径$z_t$的速度场$v_t$回归到正确的值。 条件注入: $z_l$直接与$z_t$在通道维度拼接,作为DiT的输入。 文本嵌入$c$和频谱滚降嵌入在序列维度拼接后,通过交叉注意力机制注入DiT。 目标频谱滚降嵌入$f_h$与输入频谱滚降嵌入$f_l$在通道维度拼接、投影后,与时间步$t$的正弦嵌入相加,然后前置(prepend) 到DiT输入序列的最前面,为模型提供全局的高/低频能量参考。 为了灵活控制条件强度,使用了Classifier-Free Guidance (CFG)。在公式(4)中,$s_a$和$s_t$分别是声学条件和文本条件的引导尺度。 输出生成:推理时,从噪声$z_0$出发,通过ODE求解器(如Euler方法)在DiT的引导下迭代去噪,得到估计的高分辨率潜在表示$\hat{z}_h$。 后处理:$\hat{z}_h$通过预训练的VAE解码器恢复成音频信号,最后进行低频替换,将输入音频$x_l$的低频部分(截止频率以下)直接复制到输出中,以确保低频信息的绝对一致。 图1展示了SAGA-SR的完整流程:音频对通过VAE编码,文本和频谱滚降特征被提取并注入到DiT中,最终由DiT估计高分辨率潜在表示,再经VAE解码和低频替换后得到输出。 ...

2026-04-29

Subspace Hybrid Adaptive Filtering for Phonocardiogram Signal Denoising

📄 Subspace Hybrid Adaptive Filtering for Phonocardiogram Signal Denoising #心音信号 #信号处理 #自适应滤波 #音频增强 #时频分析 ✅ 7.0/10 | 前50% | #音频增强 | #信号处理 | #心音信号 #自适应滤波 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Wageesha N. Manamperi (University of Moratuwa, Sri Lanka, Department of Electronic & Telecommunication Engineering) 通讯作者:论文中未明确标注通讯作者 作者列表:Wageesha N. Manamperi (University of Moratuwa, Sri Lanka, Department of Electronic & Telecommunication Engineering; Audio & Acoustic Signal Processing Group, Australian National University, Australia), Thushara D. Abhayapala (Audio & Acoustic Signal Processing Group, Australian National University, Australia) 💡 毒舌点评 亮点在于将经典的NLMS、GMM维纳滤波与多通道PCA子空间方法进行“混搭”,形成一个两阶段流水线,逻辑清晰且有实验验证,为传统信号处理方法在心音降噪领域的应用提供了新思路。短板是其核心创新(两阶段串联)更偏向于工程组合而非理论突破,且代码与训练细节完全未公开,对于希望复现或深入理解参数影响的读者极不友好,削弱了论文的实际影响力。 ...

2026-04-29