ML-SAN: Multi-Level Speaker-Adaptive Network for Emotion Recognition in Conversations
📄 ML-SAN: Multi-Level Speaker-Adaptive Network for Emotion Recognition in Conversations #语音情感识别 #多模态模型 #多任务学习 🔥 8.0/10 | 前25% | #语音情感识别 | #多模态模型 | #多任务学习 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Kexue Wang(新疆大学) 通讯作者:Liejun Wang(新疆大学) 作者列表:Kexue Wang(新疆大学,联合具身智能实验室,丝绸之路多语言认知计算联合国际实验室,计算机科学与技术学院), Yinfeng Yu(新疆大学,联合具身智能实验室,丝绸之路多语言认知计算联合国际实验室,计算机科学与技术学院), Liejun Wang(新疆大学,联合具身智能实验室,丝绸之路多语言认知计算联合国际实验室,计算机科学与技术学院) 💡 毒舌点评 论文将说话人身份信息作为主动调制信号注入模型三个阶段(输入、交互、输出)的思路清晰且有效,能直观地提升对异质说话人的情感判别能力,消融实验也证实了每个模块的贡献。然而,特征可视化部分(t-SNE图)仅展示了类内紧凑、类间分离的总体趋势,未能深入剖析模型究竟是如何“解耦”说话人特征与情感特征的,这一部分论证力度较弱。 📌 核心摘要 要解决什么问题:现有的多模态对话情感识别模型通常将不同说话人视为可互换的实体,忽略了个体间情感表达方式的巨大差异(即说话人异质性),导致特征错配和无效融合,影响了识别精度,尤其对少数情感类别效果不佳。 方法核心是什么:提出多层说话人自适应网络(ML-SAN)。其核心是三级自适应机制:输入级校准(使用FiLM根据说话人特征归一化原始音视觉特征分布),交互级门控(基于说话人身份动态调整不同模态的权重),输出级正则化(引入说话人分类辅助损失,保持潜在空间的说话人特征一致性)。 与已有方法相比新在哪里:区别于以往将说话人ID作为简单嵌入或完全忽略的方法,ML-SAN首次将说话人身份作为贯穿整个模型流程的主动控制信号,在特征处理的多个层面实现细粒度的个性化适配,旨在将模型决策边界从“说话人无关”转变为“说话人自适应”。 主要实验结果如何:在MELD和IEMOCAP两个基准数据集上,ML-SAN均取得了最优性能。在MELD上,加权F1(W-F1)达到 67.73±0.07%,较复现的强基线MultiEMO(66.34±0.04%)提升1.39%;在IEMOCAP上达到 73.28±0.13%,较基线(72.02±0.07%)提升1.26%。消融实验证实三个模块均对性能有贡献,其中输入校准和输出正则化分别在不同数据集上作用更显著。混淆矩阵显示模型在区分“恐惧”、“愤怒”等易混淆情绪上有提升。 实际意义是什么:该工作使情感识别模型能更准确地理解个性化情感表达,对于提升情感机器人、智能客服、心理健康监测等应用中的人机交互自然度和准确性具有直接价值,特别是在需要长期、多轮交互的场景中。 主要局限性是什么:论文承认模型可能对背景噪声和模态缺失等真实世界干扰的鲁棒性有待提升。此外,虽然模型在两个数据集上有效,但其性能是否在更广泛、更多样化的说话人群体中依然稳健,需要进一步验证。开源代码和模型未提供也限制了社区的快速跟进与复现。 🏗️ 模型架构 模型整体架构旨在将说话人身份信息转化为对特征处理、模态融合和最终表征的主动调制。其流程如图2所示。 输入层与特征提取: 输入为对话片段,包含文本、音频、视觉三模态原始数据。 音频特征通过OpenSMILE提取(论文未说明具体特征集,但引用了[37]),视觉特征通过预训练的ResNet提取(论文未说明具体版本)。最终得到模态特征序列 x_i^m。 输入级校准 (Input-level Calibration): ...