Auto-MatchCut: An Audio-Visual Retrieval Framework for Seamless Match Cutting

📄 Auto-MatchCut: An Audio-Visual Retrieval Framework for Seamless Match Cutting #音频检索 #视频检索 #跨模态 ✅ 7.0/10 | 前50% | #跨模态检索 | #音频检索 | #视频检索 #跨模态 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Hongjie Chen (Dolby Laboratories) 通讯作者:未说明 作者列表:Hongjie Chen (Dolby Laboratories), Hanyu Meng (The University of New South Wales), Gautam Bhattacharya (Dolby Laboratories), Lie Lu (Dolby Laboratories), Josh Kimball (Dolby Laboratories), Ryan Rossi (未说明) 💡 毒舌点评 亮点:框架设计巧妙,通过独立控制音频和视觉距离参数(τ_a, τ_v),为用户提供了在“平滑”与“创意对比”之间灵活调节的杠杆,这是对现有单一模态方法的一个有意义扩展。 短板:评估方法过于依赖主观打分(人类和LLM),缺乏如剪切点帧级精确度、跨视频语义连贯性等客观、可量化的指标,使得“超过60%平滑”的结论说服力打折扣;且整个系统严重依赖所选编码器(CLAP/CLIP)的性能,未探讨其边界与失效情况。 ...

2026-04-29

Caption and Audio-Guided Video Representation Learning with Gated Attention for Partially Relevant Video Retrieval

📄 Caption and Audio-Guided Video Representation Learning with Gated Attention for Partially Relevant Video Retrieval #视频检索 #多模态模型 #注意力机制 #视觉语言模型 #对比学习 ✅ 7.0/10 | 前25% | #视频检索 | #多模态模型 | #注意力机制 #视觉语言模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Dan Jiang(湖南大学计算机科学与电子工程学院) 通讯作者:Bin Jiang(湖南大学计算机科学与电子工程学院,标注可能为通讯作者) 作者列表:Dan Jiang(湖南大学计算机科学与电子工程学院),Bin Jiang*(湖南大学计算机科学与电子工程学院),Chao Yang(湖南大学计算机科学与电子工程学院),Jianbo Zheng(湖南大学计算机科学与电子工程学院) 💡 毒舌点评 论文的亮点在于将视觉大语言模型(VLLM)生成的帧级字幕作为一种“语义高亮”工具,并与音频信号一起,通过一个精心设计的门控融合模块整合进视频表示学习,思路清晰且有效。短板在于,其核心创新——利用现成VLLM生成字幕作为辅助模态——更像是一种巧妙的工程应用,而非根本性的方法论突破,且在音频模态的利用上相对浅层,未能深入挖掘其时序动态特性。 📌 核心摘要 问题:部分相关视频检索(PRVR)中,长视频包含大量冗余的视觉和听觉语义,而只有与查询相关的显著子集决定了相关性。现有方法平等对待所有视觉内容,且忽略音频线索,导致视频表示冗余且不全面。 核心方法:提出了CAVIGATE框架,包含两个对称分支:视频-字幕(VC)分支和视频-音频(VA)分支。每个分支通过一个模态门控融合(MGF)Transformer,利用可学习的门控函数动态调节字幕或音频特征对视频帧特征的贡献,以突出显著视觉语义并融合互补音频信息,同时抑制噪声。此外,引入了一种衰减的查询多样化损失,防止同一视频的不同查询在嵌入空间中过度聚集。 新意:首次将VLLM生成的帧级描述性字幕作为指导信号,显式地用于突出视频帧中的显著语义;设计了MGF模块自适应融合多模态信息;提出的衰减查询损失旨在缓解语义坍塌,鼓励模型捕获时序演变的语义。 实验结果:在ActivityNet Captions和TVR两个基准测试上,CAVIGATE在大多数指标上达到了当时的最先进水平。例如,使用CLIP-ViT-B/32骨干网络时,在ActivityNet Captions上取得了R@1=15.0, SumR=184.5;在TVR上取得了R@1=26.4, SumR=231.2,显著超越了AMDNet等基线方法。消融实验验证了每个组件(VC/VA分支、MGF、查询损失)的有效性。 实际意义:为从长、无剪辑视频中进行精准文本检索提供了更鲁棒的视频表示学习方案,可应用于视频内容理解、视频数据库搜索等场景。 主要局限性:方法的性能部分依赖于VLLM(如BLIP)生成字幕的质量,引入了额外的计算开销;对音频的利用相对直接(Wav2Vec2编码+简单融合),未充分探索更复杂的音视频交互建模。 🏗️ 模型架构 CAVIGATE是一个双分支(VC和VA)的多模态视频表示学习框架,整体流程如图2左所示。 ...

2026-04-29

ICASSP 2026 - 视频检索 论文列表

ICASSP 2026 - 视频检索 共 1 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Caption and Audio-Guided Video Representation Learning with 7.0分 前25% 📋 论文详情 🥇 Caption and Audio-Guided Video Representation Learning with Gated Attention for Partially Relevant Video Retrieval ✅ 7.0/10 | 前25% | #视频检索 | #多模态模型 | #注意力机制 #视觉语言模型 👥 作者与机构 第一作者:Dan Jiang(湖南大学计算机科学与电子工程学院) 通讯作者:Bin Jiang(湖南大学计算机科学与电子工程学院,标注可能为通讯作者) 作者列表:Dan Jiang(湖南大学计算机科学与电子工程学院),Bin Jiang*(湖南大学计算机科学与电子工程学院),Chao Yang(湖南大学计算机科学与电子工程学院),Jianbo Zheng(湖南大学计算机科学与电子工程学院) 💡 毒舌点评 论文的亮点在于将视觉大语言模型(VLLM)生成的帧级字幕作为一种“语义高亮”工具,并与音频信号一起,通过一个精心设计的门控融合模块整合进视频表示学习,思路清晰且有效。短板在于,其核心创新——利用现成VLLM生成字幕作为辅助模态——更像是一种巧妙的工程应用,而非根本性的方法论突破,且在音频模态的利用上相对浅层,未能深入挖掘其时序动态特性。 📌 核心摘要 ...

2026-04-29