Semantic-Guided Pseudo-Feature Attention Network for Audio-Visual Zero-Shot Learning
📄 Semantic-Guided Pseudo-Feature Attention Network for Audio-Visual Zero-Shot Learning #音频分类 #零样本学习 #多模态模型 #对比学习 #音视频 ✅ 7.0/10 | 前25% | #音频分类 #零样本学习 | #多模态模型 #对比学习 | #音频分类 #零样本学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Siteng Ma(苏州大学) 通讯作者:Wenrui Li(哈尔滨工业大学) 作者列表:Siteng Ma(苏州大学)、Wenrui Li(哈尔滨工业大学)、Haocheng Tang(北京大学)、Yeyu Chai(哈尔滨工业大学)、Jisheng Chu(哈尔滨工业大学)、Xingtao Wang(哈尔滨工业大学) 💡 毒舌点评 本文的亮点在于将自适应模态加权、语义引导的变分生成与语义对齐的对比学习巧妙融合,形成了一个逻辑自洽的统一框架来解决GZSL中的核心矛盾,并在两个基准数据集上取得了SOTA。然而,其短板在于对SVG模块中具体网络结构的描述较为简略,且未提供任何开源代码或详细的超参数搜索过程,使得完全复现该工作的细节变得困难。 📌 核心摘要 这篇论文旨在解决音频-视觉广义零样本学习(GZSL)中因模态竞争和类间分布重叠导致的对可见类过度偏置问题。核心方法是提出一个名为SGPAN的多模态框架,它集成了三个关键组件:1)自适应模态重加权(AMR),动态调整音频和视觉分支的损失权重以平衡学习;2)语义引导变分生成(SVG),利用文本语义条件化的VAE生成伪特征,以扩大类内覆盖并缓解类别混淆;3)语义对齐对比损失(SACL),在投影空间中对齐跨模态特征并扩大类间距。与已有方法相比,新在将特征生成、动态模态平衡与对比学习在同一个端到端框架内协同优化。实验表明,SGPAN在UCF-GZSL和VGGSound-GZSL数据集上的调和平均精度(HM)上取得了当时最优的结果。该工作的实际意义在于为开放世界下的多模态视频理解提供了一个更鲁棒的零样本识别方案。主要局限性包括模型性能对语义标签的质量以及batch统计量的依赖。 🏗️ 模型架构 模型的整体架构如图1所示。SGPAN是一个基于交叉注意力的多模态框架,其输入是来自预训练骨干网络的音频和视觉特征。 输入与跨模态特征融合:音频特征 x_a 和视觉特征 x_v 分别经过编码器得到初始嵌入 ϕ_a 和 ϕ_v。随后,这些嵌入通过一个基于Transformer的交叉注意力模块进行交互,捕捉互补信息,得到注意力输出 ϕ_att^a 和 ϕ_att^v。原始嵌入与注意力输出通过残差连接相加,并投影到共享语义空间,得到最终的模态表征 θ_a 和 θ_v。推理时,通过最近邻搜索将表征与类语义嵌入匹配进行预测。 语义引导变分生成(SVG):该模块旨在为每个类生成伪特征。对于类嵌入 w,首先通过一个投影层得到 ˆw,然后经过语义引导门控注意力模块(SGAM)进行精炼得到 ˜w。接着,对于每个模态(音频/视觉),一个条件VAE将 ˜w 映射为潜在分布 (μ_m, log σ²_m),并采样得到潜在变量 z_m。解码器 D_m 将 z_m 解码为伪特征 ˆx_m。引入受控噪声 δ 以增加生成多样性。 损失函数集成:模型的总损失由四部分组成:跨注意力损失 l_cr、自适应模态重加权损失 l_AMR、语义对齐对比损失 l_s 和生成损失 l_g。这些损失共同优化整个框架。 图1:SGPAN的整体结构图。展示了从输入特征提取、跨模态注意力融合、到三个核心模块(AMR、SVG、SACL)的集成,以及最终的预测过程。 ...