Spatial-Aware Conditioned Fusion for Audio-Visual Navigation
📄 Spatial-Aware Conditioned Fusion for Audio-Visual Navigation #声源定位 #多模态模型 #强化学习 #基准测试 ✅ 评分:7.0/10 | arxiv 👥 作者与机构 第一作者:Shaohang Wu(新疆大学计算机科学与技术学院,具身智能联合实验室,丝绸之路多语言认知计算联合国际实验室) 通讯作者:Yinfeng Yu(新疆大学计算机科学与技术学院,具身智能联合实验室,丝绸之路多语言认知计算联合国际实验室;邮箱:yuyinfeng@xju.edu.cn) 其他作者:无其他作者 💡 毒舌点评 这篇论文把 FiLM 这瓶“旧酒”装进了音频-视觉导航的“新瓶”,效果居然出奇地好——只增加了 0.15M 参数就把 unheard 场景的 SR 拉高了 28 个百分点,堪称“少即是多”的典范。但槽点在于 SDLD 的 20 个离散区间完全靠拍脑袋(“30米除以20约等于1.5米步长”),连个区间数消融都没有;且整篇论文对 FiLM 的引用和改造堪称“教科书级搬运”,说成“建立新范式”多少有点给自己加戏。 🔗 开源详情 代码:论文中未提及开源计划,未提供 GitHub/GitLab 地址。 模型权重:未公开。 数据集:使用公开基准 SoundSpaces(Replica + Matterport3D),未发布新数据集。 预训练权重:未提供。 在线 Demo:未提及。 依赖开源项目:论文引用了 SoundSpaces、Habitat、PPO、GRU、LSTM 等公开框架/算法,但未明确列出代码依赖。 📌 核心摘要 本论文针对音频-视觉导航(AVN)中目标空间意图模糊、视觉特征缺乏听觉条件引导两大问题,提出了 Spatial-Aware Conditioned Fusion(SACF)框架。该框架首先设计了 Spatially Discretized Localization Descriptor(SDLD),将声源相对方向与距离离散化为 20 个区间并预测其概率分布,通过期望计算与 LSTM 时序精炼得到紧凑空间描述符;其次提出了 Audio-Descriptor Conditioned Visual Fusion(ACVF),基于音频嵌入与空间描述符生成 FiLM 通道调制参数(γ, β),对视觉特征图进行轻量化线性变换,从而抑制背景噪声、增强目标导向视觉表示。在 SoundSpaces 的 Replica 与 Matterport3D 数据集上,SACF 在深度输入设置下显著超越 SoundSpaces 基线,尤其在 Unheard 场景(未听过目标声音)下 Replica 的 SR 提升 28.2%、Matterport3D 的 SPL 提升 20.5%。整体模型参数量仅约 4.5M,以较低计算开销实现了强泛化性。局限性在于 RGB 输入下部分指标(如 SNA)仍略低于对比方法 AGSA,且未进行真实世界迁移验证。 ...