Whisper-QF: Leveraging Dual Cross-Attention Q-Former for Speech Emotion Recognition With Multi-Task Learning

📄 Whisper-QF: Leveraging Dual Cross-Attention Q-Former for Speech Emotion Recognition With Multi-Task Learning #语音情感识别 #多任务学习 #语音大模型 #Q-Former ✅ 7.5/10 | 前25% | #语音情感识别 | #多任务学习 | #语音大模型 #Q-Former 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ziyang Zhuang(平安科技,Ping An Technology) 通讯作者:未说明 作者列表:Ziyang Zhuang(平安科技)、Tao Wei(平安科技)、Yan Shi(平安科技)、Shaojun Wang(平安科技)、Jing Xiao(平安科技) 💡 毒舌点评 本文亮点在于设计了双交叉注意力Q-Former,巧妙且高效地桥接了Whisper编码器的声学特征与解码器的语义状态,在IEMOCAP上刷新了SOTA,证明了这种“适配器”设计的威力。但短板在于,它本质上是对Whisper现有架构的增强与适配,并未探索情感识别本身更深层的建模范式变革,且研究高度依赖单一数据集,结论的泛化性有待更多场景验证。 📌 核心摘要 问题:如何有效利用大规模预训练语音基础模型(如Whisper)的编码器-解码器架构,来提升语音情感识别(SER)的性能,同时克服���有方法在融合声学与语义信息上的局限。 方法:提出Whisper-QF框架,其核心是一个双交叉注意力Q-Former(DualCA-QF)模块。该模块包含两个交叉注意力层:第一层将可学习的查询向量与Whisper编码器的声学特征对齐;第二层将同一查询向量与Whisper解码器的语义状态对齐。同时,通过不确定性加权进行多任务学习,联合优化SER、性别分类(GR)和自动语音识别(ASR)任务。 创新:与先前方法(如序列化多任务学习的Whisper-ER)相比,DualCA-QF允许声学和语义信息在Q-Former内部并行、双向流动,而非序列依赖。查询嵌入从Whisper预训练词嵌入中初始化,使任务与基础模型的语义空间对齐。多任务学习策略提供了更丰富的监督信号。 结果:在IEMOCAP数据集上,基于Whisper-large-v3的Whisper-QF达到81.5%加权准确率(WA)和81.8%未加权准确率(UA),显著超越Whisper-ER等基线。同时,ASR词错误率(WER)从Whisper-ER的17.8%降至11.1%。消融实验表明,移除解码器感知交叉注意力使中性情绪的误分类减少23%。主要结果对比如下: 模型 参数量 SER WA SER UA GR Acc ASR WER Whisper-ER large-v3 1.54B 78.7% 79.4% 99.4% 17.8% Whisper-QF large-v3 1.57B 81.5% 81.8% 99.6% 11.1% 意义:验证了通过轻量级、架构感知的适配模块(如Q-Former),可以高效地挖掘大规模语音基础模型在情感理解等复杂任务上的潜力,为预训练模型在语音领域的迁移学习提供了新思路。 局限:研究仅在IEMOCAP(英语、情感类别有限)一个数据集上进行验证,模型的跨语言、跨数据集泛化能力未被评估。此外,框架的效能高度依赖于Whisper本身的能力和质量。 🏗️ 模型架构 Whisper-QF的整体架构如图1所示,主要由三个部分组成:原始的Whisper模型、双交叉注意力Q-Former(DualCA-QF)以及不确定性加权的多任务学习框架。 ...

2026-04-29