Relative Time Intervals Representation For Word-Level Timestamping With Masked Training
📄 Relative Time Intervals Representation For Word-Level Timestamping With Masked Training #语音识别 #大语言模型 #相对时间表示 #参数高效微调 #语音大模型 🔥 8.0/10 | 前25% | #语音识别 | #大语言模型 | #相对时间表示 #参数高效微调 学术质量 8.0/7 | 选题价值 7.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Quanwei Tang(苏州大学) 通讯作者:Dong Zhang(苏州大学;江苏语言计算重点实验室) 作者列表:Quanwei Tang(苏州大学),Zhiyu Tang(昆士兰大学),Xu Li(AISpeech Ltd),Dong Zhang(苏州大学;江苏语言计算重点实验室),Shoushan Li(苏州大学),Guodong Zhou(苏州大学) 💡 毒舌点评 亮点在于用“相对时间间隔”替代“绝对时间戳”这一简单却有效的表示革新,直击现有方法词汇爆炸与误差累积的痛点,设计巧妙且实验收益显著。短板是创新主要停留在表示层面和训练技巧(如掩码概率固定为10%),对于时间建模本身(如动态间隔学习)的探索深度略显不足,更像是一个为特定任务设计的实用工程改进。 🔗 开源详情 代码:论文中提供了代码仓库链接:https://github.com/tangquanwei/Timestamp-Aware-Speech-LLM。 模型权重:未提及是否公开。 数据集:使用了公开数据集(AISHELL-2, Common Voice),但未说明具体获取和预处理方式。 Demo:未提及。 复现材料:提供了较详细的训练数据(AISHELL-2, Common Voice英文子集)、训练硬件(24x Ascend 910B NPU)、关键超参数(学习率 5×10^-6, 批次时长500秒,时间戳掩码概率10%, λ动态策略)、优化器(AdamW)和调度器(WarmupCosineLR)。这些信息对复现至关重要。 论文中引用的开源项目:引用了 LoRA(用于参数高效微调)和 FireRedASR-LLM(作为基础架构)。 📌 核心摘要 问题:现有语音大模型在生成带时间戳的转录时,主要使用绝对时间戳,这会导致词汇表膨胀、误差累积传播,并且对超出训练时长范围音频的泛化能力差。 方法核心:提出用相对时间间隔(即相邻词之间的时间差)表示时间戳,替代绝对时间戳。同时,采用混合微调策略(对新增模块全参数微调,对骨干解码层使用LoRA)和时间戳掩码训练目标,以高效注入时间预测能力并提升鲁棒性。 创新点:首次在语音大模型中系统性地提出并验证了基于相对时间间隔的时间戳表示方法;引入时间戳掩码训练以防止模型过拟合于完美标注;设计了角色感知的混合参数高效微调策略。 主要实验结果:在LibriSpeech和Wenet-Meeting两个数据集上,本文方法(Relative Timestamp)在时间戳预测的精确率、召回率和平均时间差指标上均显著优于Qwen2-Audio、WhisperTimestamped、SenseVoiceSmall、Canary等基线模型以及论文内对比的绝对时间戳方法。例如,在Wenet-Meeting数据集上,240ms容差下,本文方法的精确率和召回率分别达到91.13%和86.88%,平均时间差仅30.34ms。消融实验表明,移除时间戳损失或时间戳掩码均会导致性能明显下降。 实际意义:使语音大模型从“内容理解机器”升级为“时间感知的内容理解机器”,为需要精确时序对齐的应用(如字幕生成、语音编辑、会议记录)提供了更优解决方案。 主要局限性:掩码训练策略相对简单(固定10%概率),未探讨更复杂的掩码或课程学习策略;相对时间间隔的范围(0-5秒)是否普适于所有语音场景有待验证;论文未详细分析模型在不同语速、不同噪声条件下的鲁棒性。 🏗️ 模型架构 论文中的架构对比图如下: ...