AISHELL6-Whisper: A Chinese Mandarin Audio-Visual Whisper Speech Dataset with Speech Recognition Baselines
📄 AISHELL6-Whisper: A Chinese Mandarin Audio-Visual Whisper Speech Dataset with Speech Recognition Baselines #语音识别 #迁移学习 #数据集 #音视频 🔥 8.3/10 | 前25% | #语音识别 | #迁移学习 | #数据集 #音视频 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Cancan Li(武汉大学计算机科学学院, 武汉大学人工智能学院) 通讯作者:Juan Liu(武汉大学计算机科学学院, 武汉大学人工智能学院)†; Ming Li(苏州城市多模态智能系统重点实验室, 杜克昆山大学数字创新研究中心)† 作者列表:Cancan Li(武汉大学计算机科学学院, 武汉大学人工智能学院)、Fei Su(武汉大学计算机科学学院, 武汉大学人工智能学院)、Juan Liu(武汉大学计算机科学学院, 武汉大学人工智能学院)、Hui Bu(北京飞识科技有限公司)、Yulong Wan(OPPO AI中心, 北京)、Hongbin Suo(OPPO AI中心, 北京)、Ming Li(苏州城市多模态智能系统重点实验室, 杜克昆山大学数字创新研究中心) 💡 毒舌点评 这篇论文最大的亮点是“用处很大”——它提供了一个规模空前、包含同步视频的中文耳语音频-视觉数据集,直接解决了该领域数据匮乏的痛点,对推动相关研究价值极高。然而,其提出的“基线模型”本质上是在强大的Whisper-Flamingo框架上做了一些有效的“微调”与“适配”,在模型架构的原创性上并未带来颠覆性突破,更多是工程整合与策略优化。 📌 核心摘要 问题:耳语音识别对于隐私保护、医疗辅助等场景至关重要,但其因缺乏基频、能量低等特点导致识别困难。中文耳语识别发展受限于缺乏大规模专用数据集,尤其是包含音视频信息的数据集。 方法核心:作者构建了AISHELL6-Whisper数据集,包含30小时耳语和30小时平行普通语音,其中121位说话人的数据配有同步的正面面部视频。基于此,提出了一个音频-视觉耳语识别基线模型,该模型分两阶段训练:第一阶段在共享的Whisper编码器/解码器上采用并行训练策略,同时处理成对的耳语和普通语音;第二阶段集成视觉特征,并引入一个投影层专门优化耳语特征的表示。 与已有方法相比新在哪里:1)数据集规模与模态上远超现有中文耳语数据集(如iWhisper-Mandarin, AVWD)。2)模型方面,创新性地将并行训练策略(强制耳语与普通语音特征对齐)和针对耳语设计的投影层相结合,有效弥合了两种语音模式间的差异。3)在公开的英文耳语基准wTIMIT上验证了方法的跨语言迁移能力。 主要实验结果:在自建的AISHELL6-Whisper测试集上,完整模型(包含并行训练+投影层+视频)在耳语上的CER为4.13%,在普通语音上为1.11%。在wTIMIT测试集上,使用在本数据集上预训练的模型进行微调后,在美国口音耳语WER上比原始Whisper Large-V3降低了1.85%,在新加坡口音耳语WER上降低了7.40%,取得了新的最先进(SOTA)结果。关键消融实验证明了并行训练、投影层和视频信息各自带来的性能提升。 模型/策略 Whisper Speech CER Normal Speech CER Whisper (Large-V3) 18.93% 3.95% + Finetune 6.69% 1.62% + Parallel training 4.53% 0.98% + Projection layer 4.34% 1.14% + Video 4.21% 1.08% + Video (Proposed) 4.13% 1.11% 表3:在AISHELL6-Whisper测试集上的性能消融实验。 实际意义:为中文耳语识别研究提供了宝贵的基准数据集和强基线,推动了该领域发展。所提方法展示了利用平行数据和少量结构改进提升特定语音识别任务的有效性,对低资源或特殊语音模式识别有借鉴意义。 主要局限性:论文未探讨耳语识别在真实噪声或低信噪比环境下的性能,而视觉信息在此类场景下可能更为重要。此外,模型依赖于预训练的强力Whisper和AV-HuBERT,对于计算资源有限的团队,完整训练或部署可能具有挑战性。 🏗️ 模型架构 本文提出的基线模型架构如图2所示,其训练分为两个阶段,整体基于Whisper和Whisper-Flamingo框架构建。 ...