Easy Turn: Integrating Acoustic and Linguistic Modalities for Robust Turn-Taking in Full-Duplex Spoken Dialogue Systems
📄 Easy Turn: Integrating Acoustic and Linguistic Modalities for Robust Turn-Taking in Full-Duplex Spoken Dialogue Systems #语音对话系统 #多模态模型 #大语言模型 #数据集 #预训练 ✅ 7.0/10 | 前25% | #语音对话系统 | #多模态模型 | #大语言模型 #数据集 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Guojian Li(西北工业大学计算机学院,音频、语音与语言处理组) 通讯作者:Zhonghua Fu(西北工业大学计算机学院),Lei Xie(西北工业大学计算机学院) 作者列表: Guojian Li,Chengyou Wang,Hongfei Xue,Shuiyuan Wang,Dehui Gao,Zhonghua Fu,Lei Xie(西北工业大学计算机学院,音频、语音与语言处理组) Zihan Zhang,Yuke Lin,Wenjie Li,Longshuai Xiao(华为技术有限公司) 💡 毒舌点评 亮点:论文直击全双工对话系统中轮次检测“缺乏开源、数据稀缺”的痛点,不仅提出了一个性能优越的开源模型,还配套发布了超千小时的专项训练集,堪称“送数据送模型”的良心之作,对社区的实用价值很高。短板:模型架构本质上是Whisper和轻量LLM的常规组合,创新更多体现在工程化整合与ASR+检测的串联范式,理论突破有限;合成数据流程复杂,其与真实用户交互数据的分布差异可能影响模型在极端情况下的鲁棒性。 📌 核心摘要 问题:在全双工语音对话系统中,需要一个鲁棒的轮次检测模块来判断用户何时说完、未说完、在回应或要求暂停,但现有开源方案或受限于单模态、或模型过大、或需要大量稀缺的全双工数据。 方法:提出Easy Turn,一个开源的模块化双模态(声学+语言学)轮次检测模型。它采用“ASR+轮次检测”范式,以Whisper为音频编码器,通过适配器连接轻量级的Qwen2.5-0.5B LLM,先生成语音转录文本,再融合声学与文本特征预测四种对话状态。同时发布了Easy Turn trainset,一个1145小时、覆盖四种状态的大规模训练数据集。 创新:主要创新在于:(1) 开源了首个支持四种对话状态、性能领先的轮次检测模型和配套数据集,填补了领域空白;(2) 采用“ASR+检测”范式有效融合声学与语言信息,避免了单模态的局限;(3) 通过模块化设计和轻量级LLM,在性能和效率间取得了平衡。 实验结果:在自建的Easy Turn测试集上,Easy Turn在四种状态(完整、不完整、回应、等待)上的准确率(96.33%, 97.67%, 91%, 98%)均显著优于现有开源模型TEN Turn Detection和Smart Turn V2。同时,模型参数量(850MB)、延迟(263ms)和内存占用(2559MB)处于可接受范围。消融实验表明,双模态融合及“ASR+检测”范式对性能提升至关重要(平均准确率从单模态的~86%提升至95.75%)。 模型 参数量(MB) ↓ 延迟(ms) 内存(MB) 完整(%) ↑ 不完整(%) 回应(%) 等待(%) Paraformer + TEN Turn Detection 7220 204 15419 86.67 89.3 - 91 Smart Turn V2 95 27 370 78.67 62 - - Easy Turn (Proposed) 850 263 2559 96.33 97.67 91 98 实际意义:为全双工语音对话研究提供了即插即用的开源工具和高质量数据,显著降低了研究门槛,有望加速相关技术从实验室走向产品应用。 主要局限性:模型在极端真实环境(如极高噪声、多人同时说话)下的鲁棒性尚未充分验证;训练数据中的合成部分可能无法完全覆盖所有自然交互场景;“ASR+检测”的串联设计可能带来一定延迟,且在ASR错误时可能影响检测性能。 🏗️ 模型架构 (注:此为论文描述的架构图,但无法确认其原始URL。上图链接来自论文引用的GitHub仓库,推测为论文中的图2) ...