Affect-Jigsaw: Integrating Core and Peripheral Emotions for Harmonious Fine-Grained Multimodal Emotion Recognition
📄 Affect-Jigsaw: Integrating Core and Peripheral Emotions for Harmonious Fine-Grained Multimodal Emotion Recognition #语音情感识别 #多模态模型 #零样本 🔥 8.0/10 | 前25% | #语音情感识别 | #多模态模型 | #零样本 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Shihao Gao (湖南大学计算机科学与电子工程学院) 通讯作者:Jing Han (剑桥大学计算机科学与技术系) 作者列表:Shihao Gao (湖南大学计算机科学与电子工程学院), Zixing Zhang (湖南大学计算机科学与电子工程学院;湖南大学深圳研究院), Zhiqiang Gao (湖南大学计算机科学与电子工程学院), Hongyu Chen (湖南大学计算机科学与电子工程学院), Jing Han* (剑桥大学计算机科学与技术系) 💡 毒舌点评 这篇论文的核心亮点在于其“任务分解”思想:没有一头扎进复杂的细粒度预测,而是聪明地将其拆解为“定锚(核心情感)”和“扩展(周边情感)”两个更易管理的子任务,这种化繁为简的思路是解决开放词汇预测难题的有力尝试。然而,其主要短板在于对“自评整合机制(SCIM)”这一关键创新点的技术细节披露不足,仅停留在“修剪、去歧、补全”的功能描述和流程示意图层面,未提供具体的提示词设计、模型交互流程或鲁棒性分析,这让一个看似精巧的模块在技术复现上留下了较大的模糊空间。 📌 核心摘要 问题:论文针对细粒度多模态情感识别(MER-FG)这一新兴任务,指出其面临标注数据稀缺、噪声多,以及现有方法要么依赖有限细粒度数据,要么零样本预测不精准,且均未有效利用传统离散情感识别积累的丰富资源的困境。 方法核心:提出Affect-Jigsaw框架,其核心是将MER-FG任务分解为两个子任务:(1)预测一个最显著的核心情感(来自6种基本情绪);(2)预测一组与之共存的、开放词汇的周边情感。该框架整合了三个来源的信息:在离散标签数据上微调的核心情感预测器、在细粒度数据上微调的周边情感预测器、以及基础大模型的零样本预测能力。最终,设计了一个自评整合机制(SCIM),利用大模型的推理能力,对核心情感与周边情感的候选集进行修剪、去歧和补全,输出和谐一致的最终标签。 创新之处:与已有方法相比,其主要新意在于:(1)首次提出核心/周边情感的任务分解范式,有效桥接了传统离散情感与新兴细粒度情感任务;(2)设计了SCIM,将静态的标签集合并转化为动态、上下文感知的推理过程;(3)协同利用了离散数据(保证核心准确性)、细粒度数据(捕捉细微差别)和零样本知识(拓宽覆盖范围)。 实验结果:在MER2025 Challenge官方测试集上,Affect-Jigsaw取得了最优性能。具体结果如下表所示,其平均分(Avg)相比最强的基线“Clues-based Framework”提升了6.93个百分点。 方法 模态 S1 (↑) S2 (↑) Avg (↑) AffectGPT [10] A,V,T 57.36 36.35 46.86 Clues-based Framework [15] A,V,T 61.87 42.26 52.06 Affect-Jigsaw (ours) A,V,T 68.58 49.39 58.99 实际意义:该工作为MER-FG提供了一个新的思路框架,即通过任务分解和数据协同来克服小样本、高噪声的挑战,推动情感识别向更丰富、更贴近真实人类情感状态的方向发展。 主要局限性:论文指出,当多模态线索(如面部表情与语音内容)冲突时,框架过度依赖基于零样本推理的SCIM,可能导致预测偏差(如案例3所示)。此外,SCIM的具体实现细节未公开,限制了方法的透明度和可复现性。 🏗️ 模型架构 论文中的图1()展示了Affect-Jigsaw的整体架构。该框架主要由两个并行分支和一个整合机制组成: ...