RCAL: Reinforced Cross-Modal Alignment for Multimodal Sentiment Analysis with Sparse Visual Frames

📄 RCAL: Reinforced Cross-Modal Alignment for Multimodal Sentiment Analysis with Sparse Visual Frames #多模态模型 #对比学习 #稀疏输入 #跨模态 #工业应用 🔥 8.5/10 | 前25% | #多模态模型 | #对比学习 | #稀疏输入 #跨模态 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Xinwei Song(Northeastern University, Khoury College of Computer Science, Portland, ME, United States) 通讯作者:未说明 作者列表:Xinwei Song(Northeastern University),Xinran Tao(Northeastern University),Jiachuan Wu(Northeastern University),Tala Talaei Khoei(Northeastern University) 💡 毒舌点评 这篇论文的亮点在于其“问题导向”的设计哲学,精准地击中了多模态情感分析从实验室走向真实部署时的核心痛点——视觉信息的稀疏与不稳定,并为此构建了一个闭环的记忆修复系统。然而,其消融实验虽证明了各模块有效性,但未能更深入地揭示在不同稀疏程度(如少于5帧)下各组件贡献度的变化规律,框架的复杂度提升与性能增益之间的权衡关系值得进一步量化。 📌 核心摘要 问题:现有的多模态情感分析方法大多依赖密集、高质量的视频流,但在远程医疗、驾驶员监控、隐私保护等真实场景中,视觉输入往往极度稀疏(仅5-10帧),导致视觉线索不完整且不稳定,破坏了其在多模态融合中的锚点作用。 方法核心:提出RCAL(强化跨模态对齐)框架,以视觉为中心,专门处理极端视觉稀疏下的情感分析。其核心是三个互补组件:(i) 迭代记忆精炼,通过闭环循环从有限帧中逐步重建情感相关线索;(ii) 强化学习门控,自适应地决定何时将对齐后的音频-文本线索注入视觉记忆;(iii) 情感感知对比损失,根据情感相似性结构化视觉嵌入空间。 与已有方法相比新在哪:不同于先前假设密集视觉并进行单次前馈融合的方法(如ALMT),RCAL引入了持久的视觉记忆(hv_hyper),并设计了“更新-反馈”的迭代精炼循环,主动修复缺失的视觉证据。同时,使用离散的强化学习门控(而非软门控)来做出更尖锐的“开/关”决策,以更好地过滤噪声跨模态线索。 主要实验结果:RCAL在MOSI、MOSEI和CH-SIMS三个基准数据集上取得了SOTA性能。关键结果如下表所示(指标:MAE↓, Corr↑, Acc-7/5↑)。即使只使用5帧输入,RCAL也超过了使用全帧的多数基线模型;使用全帧输入时性能进一步提升。 数据集 模型 MAE Corr Acc MOSI RCAL (5帧/全帧) 0.665/0.641 0.819/0.848 48.03/52.14 次优基线 (KuDA) 0.705 0.795 47.08 MOSEI RCAL (5帧/全帧) 0.527/0.503 0.753/0.787 54.19/55.26 次优基线 (KuDA) 0.529 0.776 52.89 CH-SIMS RCAL (5帧/全帧) 0.407/0.395 0.604/0.612 45.08/47.92 次优基线 (KuDA) 0.408 0.613 43.54 消融实验表明,记忆精炼模块是性能最关键的贡献者。 实际意义:为带宽受限、隐私敏感或实时性要求高的实际情感计算应用(如远程诊疗、司机状态监控)提供了一个高效、鲁棒的实用解决方案,推理延迟低于5毫秒。 主要局限性:(1) 框架引入了多个组件和迭代循环,其计算开销和训练复杂度相对于简单融合模型有所增加;(2) 论文主要关注固定稀疏度(如5帧)的性能,对动态变化或极端稀疏(如1-2帧)情况下的自适应能力探讨有限;(3) 视觉记忆的迭代精炼本质上是序列化操作,可能影响并行化效率。 🏗️ 模型架构 RCAL是一个以视觉为中心的多模态情感分析框架,其整体流程如下图所示。 输入:稀疏的视觉帧(经过采样)、文本序列、音频波形。 ...

2026-04-29