MNV-17: A High-Quality Performative Mandarin Dataset for Nonverbal Vocalization Recognition in Speech
📄 MNV-17: A High-Quality Performative Mandarin Dataset for Nonverbal Vocalization Recognition in Speech #语音识别 #数据集 #语音大模型 #多任务学习 #开源工具 ✅ 7.5/10 | 前25% | #语音识别 | #数据集 | #语音大模型 #多任务学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表: Jialong Mai(华南理工大学) Jinxin Ji(香港理工大学,同济大学) Xiaofen Xing(华南理工大学) Chen Yang(上海交通大学) Weidong Chen(香港中文大学) Jingyuan Xing(华南理工大学) Xiangmin Xu(华南理工大学,佛山大学) 💡 毒舌点评 亮点:论文精准切中了非语语音识别领域“数据荒”的痛点,并提供了一套从数据采集(LLM脚本生成)、标注(多模态LLM分割)到模型评估的完整解决方案,其17类平衡数据集的发布具有明确的实用价值。 短板:数据集总时长仅7.55小时,且采用“表演性”录制,其在真实、自发对话场景中的适用性存疑;实验虽全面但深度有限,仅评估了四个现成模型的微调性能,缺乏对数据本身声学特性或更复杂交互建模的深入探讨。 🔗 开源详情 代码:论文提供了GitHub仓库链接(https://github.com/yongaifadian1/MNV-17),但未明确说明该仓库是否包含数据处理或模型训练的代码。 模型权重:论文明确提到提供预训练模型检查点。 数据集:论文明确提到MNV-17数据集是公开的。 Demo:论文中未提及在线演示。 复现材料:论文提供了模型选择、训练策略(如优化器、学习率、LoRA参数)、数据划分协议等关键信息。但未提供完整的配置文件、数据预处理脚本或详细的硬件信息。 论文中引用的开源项目:引用了Praat(语音录制)、pyannote.audio(VAD,用于对比)、Montreal Forced Aligner(MFA,用于对比)、Paraformer、Whisper(未明确提及,但作为常见基线)、SenseVoice、Qwen2-Audio、Qwen2.5-Omni、Gemini(用于数据分割)。 📌 核心摘要 问题:主流自动语音识别系统无法识别语音中嵌入的非语语音(如笑声、叹气、咳嗽),这限制了对人类交流中情感和意图的全面理解。主要瓶颈在于缺乏高质量、标注精准且类别平衡的训练数据集。 方法:本文提出了MNV-17数据集,一个7.55小时的普通话“表演性”语音数据集,包含17类常见非语语音。通过大语言模型生成上下文自然的脚本,确保类别平衡和分布合理。录音后,利用音频多模态大模型(Gemini)进行精确的句子级时间戳标注,并用ASR模型(Whisper)进行质量过滤。 新意:相比于现有数据集(类别3-10个,最大/最小频率比高达516),MNV-17拥有最多的17个类别,且类别分布极为平衡(最大/最小频率比仅为2.7)。其“表演性”采集方式旨在获得清晰、明确的非语语音实例。 结果:在四个主流ASR模型(SenseVoice, Paraformer, Qwen2-Audio, Qwen2.5-Omni)上进行了联合转录与非语语音分类基准测试。关键结果如表2所示:Qwen2.5-Omni在联合字符错误率上取得最佳3.60%。关键结果如表3所示:非语语音识别准确率(要求类型、数量、顺序完全匹配)最高为SenseVoice和Qwen2.5-Omni的57.29%。关键结果如表4所示:多任务预训练模型在增加非语语音识别任务后,其核心ASR性能损失很小甚至有所提升(Qwen2-Audio的CER从3.05%降至2.60%)。 意义:为表达性语音理解提供了关键资源,验证了大型多任务音频模型能有效整合非语语音识别能力,且不损害甚至提升其核心转录性能,为未来更人性化的对话系统奠定了基础。 局限性:数据集总规模较小;“表演性”数据与真实自发语音可能存在差异;实验评估集中于现有模型的微调,未提出针对该任务的新型模型架构。 🏗️ 模型架构 本文并未提出新的模型架构,而是将MNV-17数据集应用于评估四种现有的主流ASR架构,并对其进行联合任务微调。主要架构类型为: ...