SoundCompass: Navigating Target Sound Extraction with Effective Directional Clue Integration in Complex Acoustic Scenes
📄 SoundCompass: Navigating Target Sound Extraction with Effective Directional Clue Integration in Complex Acoustic Scenes #语音分离 #麦克风阵列 #信号处理 #多通道 #空间音频 ✅ 7.5/10 | 前25% | #语音分离 | #麦克风阵列 | #信号处理 #多通道 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Dayun Choi(韩国科学技术院电气工程学院) 通讯作者:Jung-Woo Choi(韩国科学技术院电气工程学院) 作者列表:Dayun Choi(韩国科学技术院电气工程学院)、Jung-Woo Choi(韩国科学技术院电气工程学院) 💡 毒舌点评 论文亮点在于将球谐函数(SH)这种连续、旋转不变的表示与精心设计的SPIN模块相结合,优雅地解决了传统DoA编码的离散化和信息损失问题,理论动机非常扎实。然而,所有实验都在重新生成的静态声源场景(gpuRIR)上进行,虽然控制了变量,但削弱了对“复杂声学场景”中动态性和真实混响的验证说服力,这让其声称的“鲁棒性”略显成色不足。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:训练数据基于ASA2数据集(https://huggingface.co/datasets/donghoney22/ASA2_dataset)使用gpuRIR重新生成,论文中提供了配置说明。 Demo:论文提供了在线音频演示链接:https://choishio.github.io/demo-SoundCompass/。 复现材料:给出了主要的训练超参数(学习率、优化器、batch size、epoch数等)和硬件配置,但一些关键模型参数(如编码器通道数D、注意力头数、Mamba状态维度等)未详细说明。 论文中引用的开源项目:gpuRIR (RIR模拟), SemanticHearing (用于ITD计算), torchinfo (用于计算模型复杂度), 以及基线代码SSDQ和DSENet。 📌 核心摘要 本文旨在解决复杂声学场景中,现有基于到达方向(DoA)的目标声源提取(TSE)方法因使用手工特征或离散编码而导致的精细空间信息丢失和适应性受限问题。核心方法是提出SoundCompass框架,其包含三个关键组件:1)光谱成对交互(SPIN)模块,在复数谱图域捕获所有通道间的成对空间相关性,保留完整的空间信息;2)球谐函数(SH)嵌入,作为DoA线索的连续、无离散化的表示,描述球面上的位置;3)基于推理链(CoI)的迭代细化策略,将前一阶段估计的声源时间激活与DoA线索递归融合,逐步优化提取结果。与已有方法相比,新在提出了一套端到端、保留连续空间信息的线索集成方案,并创新性地将迭代细化引入基于DoA的TSE。实验在重新生成的ASA2数据集上进行,消融研究证明了SPIN、SH和CoI的有效性。与基线方法(如SSDQ, DSENet)相比,SoundCompass在信噪比改善(SNRi)和空间一致性(∆ILD, ∆IPD, ∆ITD)上均取得更优结果,同时保持了较低的计算复杂度。实际意义在于为助听器、AR/VR等应用提供了更精准、高效的声音提取方案。主要局限性是实验验证依赖静态声源的模拟数据集,对动态场景和更复杂真实环境的泛化能力有待进一步验证。 ...