LongSpeech: A Scalable Benchmark for Transcription, Translation and Understanding in Long Speech

📄 LongSpeech: A Scalable Benchmark for Transcription, Translation and Understanding in Long Speech #基准测试 #数据集 #语音识别 #语音翻译 #多语言 ✅ 7.8/10 | 前25% | #基准测试 | #数据集 | #语音识别 #语音翻译 学术质量 5.5/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Fei Yang(上海交通大学;阿里巴巴国际数字商务) 通讯作者:Chenyang Lyu(阿里巴巴国际数字商务) 作者列表: Fei Yang(上海交通大学;阿里巴巴国际数字商务) Xuanfan Ni(阿里巴巴国际数字商务) Renyi Yang(代尔夫特理工大学;阿里巴巴国际数字商务) Jiahui Geng(林雪平大学) Qing Li(格罗宁根大学) Chenyang Lyu(阿里巴巴国际数字商务) Yichao Du(阿里巴巴国际数字商务) Longyue Wang(阿里巴巴国际数字商务) Weihua Luo(阿里巴巴国际数字商务) Kaifu Zhang(阿里巴巴国际数字商务) 💡 毒舌点评 亮点:论文直面语音模型从“短句能手”到“长卷大师”转型过程中的评测荒漠,构建了一个任务全面、数据量级宏大(10万+段,每段约10分钟)的“压力测试场”,其“内容分离”和“时序定位”等任务设计尤其刁钻,能有效暴露模型在长上下文推理上的短板。短板:作为基准,其自身的“创新”更多是工程整合与任务设计,论文对实验结果的剖析深度略显不足(例如,为何某些模型在特定任务上崩溃?),且完全依赖GPT-4作为某些任务的评估器,引入了“用更贵的模型评估便宜的模型”的黑箱与成本问题。 📌 核心摘要 解决问题:现有语音基准测试(如LibriSpeech)主要针对短音频,无法有效评估模型处理真实世界长时音频(如会议、讲座)的能力,特别是在需要跨片段理解、推理和跟踪复杂信息时。 ...

2026-04-29

MTP-S2UT: Enhancing Speech-to-Speech Translation Quality with Multi-Token Prediction

📄 MTP-S2UT: Enhancing Speech-to-Speech Translation Quality with Multi-Token Prediction #语音翻译 #多任务学习 #语音大模型 #多语言 #预训练 🔥 8.5/10 | 前25% | #语音翻译 | #多任务学习 | #语音大模型 #多语言 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Jianjin Wang(东北大学计算机科学与工程学院)与 Runsong Zhao(东北大学计算机科学与工程学院)为共同第一作者 通讯作者:Tong Xiao(东北大学计算机科学与工程学院,NiuTrans Research) 作者列表:Jianjin Wang(东北大学计算机科学与工程学院)、Runsong Zhao(东北大学计算机科学与工程学院)、Xiaoqian Liu(东北大学计算机科学与工程学院)、Yuan Ge(东北大学计算机科学与工程学院)、Ziqiang Xu(东北大学计算机科学与工程学院)、Tong Xiao(东北大学计算机科学与工程学院,NiuTrans Research)、Shengxiang Gao(昆明理工大学)、Zhengtao Yu(昆明理工大学)、Jingbo Zhu(东北大学计算机科学与工程学院,NiuTrans Research) 💡 毒舌点评 亮点:这篇工作的核心思想非常巧妙——既然CTC损失所在的解码器中间层天然融合了文本(通过CTC对齐)和语音(通过预测)两种模态的信息,那么在这里施加“预测未来”的MTP损失,就能“更早、更有效地”强化表示学习,理论动机直白且有效。 短板:实验主要局限于CVSS-C这个单一数据集上的两种语言对(英法、英西),虽然用了三种分词器,但缺乏更多样化的语言、领域(如对话、噪声环境)以及与当前最先进多模态翻译模型(如SeamlessM4T)的直接对比,其实际效用和泛化能力仍需在更广泛场景中验证。 📌 核心摘要 问题:当前主流的直接语音到语音翻译(S2ST)方法,如S2UT模型,使用离散的语音token作为中间表示。但单个语音token语义信息稀疏,需要多个token才能表达一个完整语义单元,这增加了预测的熵和建模的复杂度。 方法核心:本文首次将多token预测(MTP)损失引入S2UT框架。更进一步,作者提出MTP-S2UT损失,将MTP应用于计算CTC损失的解码器中间隐藏层,而非传统最终层,以促进模型在更早阶段融合语音和文本的跨模态信息。 创新点:与已有MTP工作仅作用于最终层不同,MTP-S2UT利用CTC层富含跨模态信息的特性,在该层施加MTP损失,旨在更早增强隐藏表示的语义密度。 实验结果:在CVSS-C基准的法语→英语和西班牙语→英语任务上,所有MTP变体均稳定提升翻译质量(以ASR-BLEU衡量)。MTP-S2UT始终获得最佳性能。例如,在法语→英语任务上,使用S3分词器和贪婪解码时,ASR-BLEU从基线17.79显著提升至24.36。分析表明,MTP损失引导CTC对齐中的文本token前移,并降低了模型预测语音token的不确定性。 实际意义:该研究为提升语音到语音翻译质量提供了一个即插即用的损失函数改进方案,其思想可推广到其他依赖离散单元进行序列到序列转换的任务中。 主要局限性:实验验证的语言对和场景相对有限,未与最新的端到端多模态翻译系统进行对比;同时,代码未开源,限制了社区的即时验证和快速应用。 关键实验结果表格: 表1:不同语音分词器在CVSS-C Fr→En测试集上的ASR-BLEU分数 ...

2026-04-29

nGPT as a Scalable Architecture for Speech Recognition and Translation

📄 nGPT as a Scalable Architecture for Speech Recognition and Translation #语音识别 #语音翻译 #nGPT #多语言 #位置编码 ✅ 7.5/10 | 前25% | #语音识别 | #nGPT | #语音翻译 #多语言 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Nune Tadevosyan (NVIDIA, Santa Clara, CA 95051, USA) (论文中注明*贡献相等) 通讯作者:未说明 作者列表:Nune Tadevosyan (NVIDIA), Nithin Rao Koluguri (NVIDIA), Monica Sekoyan* (NVIDIA), Piotr Zelasko (NVIDIA), Nikolay Karpov (NVIDIA), Jagadeesh Balam (NVIDIA), Boris Ginsburg (NVIDIA)。所有作者均隶属于NVIDIA公司。 💡 毒舌点评 亮点:在将Transformer编码器稳定扩展到3B参数上展现了工程实力,nGPT架构在单阶段训练下即在X→EN翻译任务上展现出强泛化能力,这是一个扎实的架构贡献。 短板:论文声称“首次将ALiBi应用于语音”,但核心贡献更像是将NLP领域成熟技术适配到语音任务,创新高度有限;同时,在ASR任务上,费尽心思提出的nGPT-3B在多阶段微调的1B FastConformer面前并未取得全面优势,削弱了其“可扩展性”叙事的部分说服力。 ...

2026-04-29

Phrased: Phrase Dictionary Biasing for Speech Translation

📄 Phrased: Phrase Dictionary Biasing for Speech Translation #语音翻译 #偏差学习 #多语言 #流式处理 #多模态模型 ✅ 7.5/10 | 前25% | #语音翻译 | #偏差学习 | #多语言 #流式处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Peidong Wang(Microsoft CoreAI) 通讯作者:Jinyu Li(Microsoft CoreAI) 作者列表:Peidong Wang(Microsoft CoreAI)、Jian Xue(Microsoft CoreAI)、Rui Zhao(Microsoft CoreAI)、Junkun Chen(Microsoft CoreAI)、Aswin Shanmugam Subramanian(Microsoft CoreAI)、Jinyu Li(Microsoft CoreAI) 💡 毒舌点评 亮点:本文提出的PHRASED方法具有良好的通用性,能将同一个思路(利用双语短语对)同时应用于传统的流式端到端模型(CTC-GMM)和新兴的多模态大模型,并在后者上实现了显著的短语召回率提升。短板:实验仅在中-英翻译任务上验证,且所用的“短语列表”规模(3K)与真实工业场景(可能包含数十万条目)的匹配度和鲁棒性存疑;此外,论文未提供任何代码或模型,极大地限制了其可复现性和直接应用价值。 📌 核心摘要 要解决的问题:实体短语(如专有名词、新词)因在训练数据中罕见,在端到端语音翻译(ST)中容易被错误翻译,影响核心语义理解。 方法核心:提出短语字典偏差(PHRASED),利用用户提供的源语言-目标语言实体短语对 {I: O} 来增强翻译。核心是先从中间表示(如ASR文本)中匹配源语言短语 I,再对匹配到的目标语言短语 O 进行概率加分。 新在何处:首次为端到端语音翻译设计并验证了“短语字典偏差”机制,与传统的仅使用目标短语列表(PLB)的偏差方法不同,它显式利用了源语言信息。同时,将该方法成功适配到流式Transducer模型和多模态大模型两种架构。 主要实验结果:在中文到英文的RealSI测试集上,PHRASED使流式CTC-GMM模型的短语召回率相对PLB提升了21%;使Phi-4多模态大模型的BLEU提升2.9点,短语召回率相对基线提升85%,远超PLB在大模型上失败的表现。关键数据见下表。 表1:流式语音翻译模型结果(RealSI 中-英) ...

2026-04-29

PROST-LLM: Progressively Enhancing the Speech-to-Speech Translation Capability in LLMs

📄 PROST-LLM: Progressively Enhancing the Speech-to-Speech Translation Capability in LLMs #语音翻译 #偏好优化 #大语言模型 #多任务学习 #多语言 ✅ 7.5/10 | 前25% | #语音翻译 | #偏好优化 | #大语言模型 #多任务学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Jing Xu† (†The Chinese University of Hong Kong) 通讯作者:未说明(论文作者列表为Jing Xu, Jiaqi Wang, Daxin Tan, Xiao Chen,未标注通讯作者) 作者列表:Jing Xu(香港中文大学)、Jiaqi Wang(香港中文大学)、Daxin Tan(华为人工智能实验室)、Xiao Chen(华为人工智能实验室) 💡 毒舌点评 亮点:巧妙地将机器翻译中的“回译”思��移植到语音翻译,用于自动、无需人工标注地构建偏好优化数据对,这一设计在降低S2ST研究门槛上非常聪明。短板:整个系统的“地基”——偏好数据质量——完全依赖Whisper等上游ASR的转录准确性,论文对此潜在的误差传递与放大问题缺乏深入分析,这使得方法的鲁棒性存疑。 📌 核心摘要 要解决什么问题:大语言模型在语音到语音翻译(S2ST)任务上应用不足,主要受限于高质量的配对S2ST数据稀缺。 方法核心是什么:提出PROST-LLM框架,分三步渐进式提升LLM的S2ST能力。首先,在CVSS数据集上进行有监督微调(SFT),并采用“三任务学习”(ASR,S2T,S2ST联合训练)和“模态链”(先生成目标文本,再生成目标语音)策略增强初始性能。其次,利用微调后的模型对源语音生成多个候选翻译,再将其回译为源语言语音,通过与源语音的多指标比较(WER, MCD, BLEU, METEOR)自动构建偏好数据对(首选与拒斥)。最后,使用这些偏好数据对进行偏好优化(PO),进一步精炼模型的S2ST性能。 与已有方法相比新在哪里:首次将“模态链”和“三任务学习”引入LLM的S2ST训练;首次利用回译机制自动构建偏好数据,并结合偏好优化来提升LLM的S2ST能力,避免了昂贵的人工标注;证明了可以利用单语语音语料库构建偏好数据,减少对配对S2ST数据的依赖。 主要实验结果如何:在CVSS语料库(英法双向翻译)上进行实验。与强级联系统(S2T+TTS)相比,PROST-LLM(采用模态链+DPO)将BLEU差距从初始的14.38(en2fra)和8.83(fra2en)显著缩小至3.15和1.04。消融实验证明,三任务学习和模态链策略均优于基础SFT;偏好优化能持续带来提升;使用单语数据构建偏好对甚至能取得比使用配对S2ST数据更好的效果。所有实验配置下的语音自然度(UTMOS)均高于级联系统。 实际意义是什么:为在数据有限条件下增强LLM的跨模态语音生成与翻译能力提供了一个有效框架,其自动偏好数据构建方法具有普适性,可推广到其他多模态生成任务。 主要局限性是什么:(1)偏好数据质量强依赖Whisper转录质量,其误差会直接影响偏好信号的准确性,论文未分析此影响;(2)实验仅在英法翻译上验证,多语言泛化能力未知;(3)硬件训练信息缺失,大规模复现的计算成本未知;(4)虽然模型使用了LLaMA 3.2-3B,但论文未提供模型权重,且框架的扩展性(如更大LLM、更多模态)有待验证。 🏗️ 模型架构 PROST-LLM的整体训练流程与模型架构如图1所示。 ...

2026-04-29

Revisiting Direct Speech-to-Text Translation with Speech LLMS: Better Scaling than Cot Prompting?

📄 Revisiting Direct Speech-to-Text Translation with Speech LLMS: Better Scaling than Cot Prompting? #语音翻译 #语音大模型 #端到端 #多语言 ✅ 7.5/10 | 前50% | #语音翻译 | #语音大模型 | #端到端 #多语言 学术质量 7.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Oriol Pareras(巴塞罗那超级计算中心) 通讯作者:未说明 作者列表:Oriol Pareras(巴塞罗那超级计算中心), Gerard I. Gállego(巴塞罗那超级计算中心, 加泰罗尼亚理工大学), Federico Costa(巴塞罗那超级计算中心, 加泰罗尼亚理工大学), Cristina España-Bonet(巴塞罗那超级计算中心, 德国人工智能研究中心), Javier Hernando(巴塞罗那超级计算中心, 加泰罗尼亚理工大学) 💡 毒舌点评 论文实验设计严谨,通过控制单一变量(S2TTpl数据规模)清晰揭示了Direct prompting优于CoT的“数据扩展性”,为后续研究指明了一个务实且资源效率更高的方向。但不足之处在于,所有结论均建立在“翻译器质量上乘”的伪标签数据之上,且最终Direct并未实现对CoT的绝对超越,其宣称的“更好扩展性”在缺乏更大规模数据验证的情况下,略显前瞻性有余而实证不足。 📌 核心摘要 问题:当前基于LLM的端到端语音到文本翻译(S2TT)主流采用思维链(CoT)提示策略,即先转录后翻译。但CoT的优势主要源于可利用海量ASR和文本翻译(T2TT)数据。本文研究随着专用S2TT数据规模增加,CoT是否仍是最佳选择,以及直接翻译(Direct)策略的扩展潜力。 方法:通过伪标签方法构建大规模多语言S2TT数据集(将ASR语料的转录翻译为6种欧洲语言),并系统性地对比了Direct和CoT两种提示策略在从小到大不同数据规模下的性能表现。 新意:这是首个在如此大规模(约384M目标token)和多语言(6种语言)伪标签S2TT数据上,系统对比Direct和CoT提示策略扩展行为的研究。挑战了CoT在S2TT中的固有优势假设。 结果:在Fleurs基准测试上,随着伪标签S2TT数据(S2TTpl)规模从0%增加到100%: Direct策略的xCOMET分数(S2TT核心指标)持续稳定提升,从基线80.6升至88.0(见图3a)。 CoT策略在20%数据规模时达到峰值(~90.0 xCOMET),之后性能反而下降。 同时,CoT策略的ASR子任务性能(WER)随数据增加而显著恶化(图3b),而Direct策略保持稳定。详细的跨语言趋势见图4。 基线对比(全量ASR+T2TT+S2TT数据,无伪标签S2TTpl数据):CoT基线(26.39 BLEU / 88.0 xCOMET)显著优于Direct基线(21.04 BLEU / 80.6 xCOMET),具体见表2。 意义:表明在S2TT数据稀缺时,CoT因其能复用ASR/T2TT数据而占优;但随着S2TT数据规模增大,更简单、计算成本更低(约减半)的Direct策略显示出更优的扩展潜力,是未来构建大规模S2TT系统的一个有前景的方向。 局限:所有S2TT数据均为伪标签生成,其质量(依赖翻译模型和过滤器)直接影响结论。论文未探索Direct策略在利用副语言信息(如韵律)方面的潜在优势。 🏗️ 模型架构 论文构建的S2TT系统是一个端到端的LLM模型,由语音编码器和LLM骨干网络组成。 ...

2026-04-29

SEP-ST: Incorporating Speech Entity Prompt Into Large Language Models for Speech Translation

📄 SEP-ST: Incorporating Speech Entity Prompt Into Large Language Models for Speech Translation #语音翻译 #大语言模型 #多任务学习 #命名实体识别 #多语言 ✅ 7.5/10 | 前25% | #语音翻译 | #多任务学习 | #大语言模型 #命名实体识别 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Fei OuYang (昆明理工大学, 云南人工智能重点实验室) 通讯作者:Zhengtao Yu (昆明理工大学, 云南人工智能重点实验室) 作者列表:Fei OuYang (昆明理工大学, 云南人工智能重点实验室)、Linqin Wang (昆明理工大学, 云南人工智能重点实验室)、Zhengtao Yu (昆明理工大学, 云南人工智能重点实验室) 💡 毒舌点评 亮点在于直击端到端语音翻译中“命名实体”这个老大难问题,提出了一种无需外部知识库、通过联合训练从语音中直接提取实体特征提示LLM的优雅方案,在CoVoST-2和MuST-C上的实体翻译准确率(TSR)提升非常亮眼。短板是方法高度依赖于预训练的NER模型生成训练标签,且消融实验显示一种核心变体(Transformer-based)效果不佳,这使得其“端到端”的纯粹性打了折扣,更像是一个“半端到端”的增强方案。 📌 核心摘要 问题:当前端到端语音翻译模型在翻译命名实体(如人名、地名、机构名)时准确率不足,而依赖级联或外部知识库的方法存在误差传播和泛化性差的问题。 方法核心:提出SEP-ST,一个端到端框架。其核心是新增一个“语音实体提示(SEP)提取模块”,直接从语音表征中学习并提取实体相关的嵌入特征。然后将该特征与原始语音特征和文本指令拼接,共同输入大语言模型(LLM)进行翻译,从而引导模型关注并准确翻译实体。 创新点:与已有方法相比,该工作是首个提出直接在语音表征层面进行端到端实体特征提取并作为提示整合进LLM的统一框架,摆脱了对外部实体词典或检索模块的依赖。 主要实验结果:在CoVoST-2数据集上,平均BLEU从39.1提升至40.6,实体翻译成功率(TSR)从36.4%提升至70.5%。在MuST-C零样本评估中,平均BLEU从16.9提升至20.6。具体对比数据见下表。 方法 CoVoST-2 (En2X) Avg BLEU CoVoST-2 (En2X) Avg TSR MuST-C (zero-shot) Avg BLEU MuST-C (zero-shot) Avg TSR LLM-SRT-7B (基线) 39.1 36.4 16.9 43.2 SEP-ST (CTC-based) 40.6 70.5 20.6 55.0 实际意义:提升了语音翻译在真实场景(常包含大量实体)中的可用性和保真度,简化了现有实体翻译增强方案的流程。 主要局限性:SEP提取模块的训练依赖于预训练NER模型标注的伪标签;其Transformer变体效果不佳,表明该特征学习方式有待探索;实验仅限于英译德/日/中三种语言方向。 🏗️ 模型架构 整体架构(如图2(a)所示)由四个核心组件顺序连接,输入为语音,输出为翻译文本。 ...

2026-04-29

SLM-TTA: A Framework for Test-Time Adaptation of Generative Spoken Language Models

📄 SLM-TTA: A Framework for Test-Time Adaptation of Generative Spoken Language Models #语音识别 #语音翻译 #领域适应 #自适应学习 #语音大模型 ✅ 7.0/10 | 前50% | #语音识别 | #领域适应 | #语音翻译 #自适应学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Yuan-Kuei Wu (Yuan-Kuei Wu1,2)(台湾大学电信工程学研究所,Meta) 通讯作者:未明确说明,但根据作者列表排序和贡献标注,Li Wan可能是主要指导者。 作者列表: Yuan-Kuei Wu(台湾大学电信工程学研究所,Meta) Yang Liu(Meta) Yiteng Huang(Meta) Zhaojun Yang(Meta) Haibin Wu(Meta) Ruizhe Huang(Meta) Yi-Te(Ethan) Hsu(Meta) Shuyu Kong(Meta) Ming Sun(Meta) Florian Metze(Meta) Li Wan(Meta) 💡 毒舌点评 亮点:论文首次系统性地解决了生成式语音大模型(SLM)在测试时自适应的难题,填补了这一领域的空白,其提出的无监督目标(熵最小化、伪标签)结合置信度过滤的框架设计精巧,且实验验证了其在多种任务和严苛噪声条件下的有效性。 短板:方法的核心组件(熵最小化、伪标签、置信度过滤)均为现有技术的组合与调整,创新的深度有限;且所有实验仅在单一商用模型Phi-4-Multimodal上进行,其结论能否泛化到其他架构(如更大、更小的模型或其他训练范式)的SLM上存疑。 ...

2026-04-29

TTA: Transcribe, Translate and Alignment for Cross-Lingual Speech Representation

📄 TTA: Transcribe, Translate and Alignment for Cross-Lingual Speech Representation #语音识别 #语音翻译 #多任务学习 #多语言 #对比学习 #模型评估 ✅ 7.5/10 | 前25% | #语音识别 | #多任务学习 | #语音翻译 #多语言 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Wei Liu(腾讯AI Lab, USA) 通讯作者:未说明 作者列表:Wei Liu(腾讯AI Lab, USA)、Jiahong Li(腾讯AI Lab, USA)、Yiwen Shao(未说明)、Dong Yu(未说明) 💡 毒舌点评 亮点: 论文针对Whisper编码器在Speech-LLM应用中的具体痛点(输入长度限制、模型臃肿、中文语义弱)设计了专用的轻量模型TTA,并通过巧妙的ZT-AED混合架构和显式对齐损失,在显著更小的模型规模上实现了性能反超,思路清晰且实用。 短板: 模型容量的“天花板”效应在语音翻译任务上暴露无遗(仍落后于Whisper-Large),且论文声称验证了“跨语言能力”对ASR无益,但所用的跨语言检索评估方式和“能力”定义略显单一,结论的普适性有待更深入探讨。 📌 核心摘要 要解决什么问题: 现有Speech-LLM模型(如Qwen-Audio)普遍采用的Whisper编码器存在输入长度受限(30秒)、模型规模庞大、中文语义性能较弱等局限,影响了集成效率与效果。 方法核心是什么: 提出轻量级模型TTA(Transcribe, Translate and Alignment),采用混合Zipformer-Transducer与注意力编码器-解码器(ZT-AED)架构。模型在358k小时的多语言数据上联合训练自动语音识别(ASR)、语音翻译(ST)和一个基于BERT的对比学习语音-文本对齐任务。 与已有方法相比新在哪里: ①架构上:创新性地将高效的Zipformer编码器与专为ASR/ST设计的双分支(Transducer + AED)解码结构结合,专门优化语义表示。②训练目标上:显式引入对比学习对齐损失,强化跨语言语义空间的构建。③验证深度上:系统研究了跨语言能力、ASR与ST之间的相互关系。 主要实验结果如何: TTA模型(~250M参数)在多个中文和英文基准测试上显著优于Whisper Medium(762M参数),并在部分多语言基准(如CommonVoice)上超越Whisper Large-v3。在跨语言语音检索任务上超越Whisper Large-v2。作为编码器接入ASR-LLM系统时,TTA编码器表现出最优的识别性能和优化效率。关键对比数据见下表(Table 1节选): 数据集 指标 Whisper Medium Whisper Large-v3 TTA (Ours) aishell 1 CER↓ 6.74 5.33 1.85 librispeech clean WER↓ 2.88 2.01 1.58 commonvoice (avg) WER↓ 11.86 8.30 6.76 covostv2 BLEU↑ 35.12 37.60 35.28 实际意义是什么: 为Speech-LLM提供了一种更高效、语义更强大的语音编码器选择,有望降低系统复杂度并提升下游任务性能。其设计思路和结论对多任务语音表示学习有参考价值。模型承诺开源,将促进后续研究。 主要局限性是什么: ①模型容量限制导致其在语音翻译上仍无法匹敌超大模型(Whisper-Large)。②在零样本评估(Fleurs)上未超越Whisper-Large,泛化能力存疑。③论文观察到强化跨语言对齐可能对ASR带来轻微性能下降,揭示了任务目标间的潜在张力。 🏗️ 模型架构 TTA的整体架构如图1(pdf-image-page2-idx0)所示,是一个多任务、多分支的端到端系统。 ...

2026-04-29

Hierarchical Policy Optimization for Simultaneous Translation of Unbounded Speech

📄 Hierarchical Policy Optimization for Simultaneous Translation of Unbounded Speech #语音翻译 #强化学习 #大语言模型 #多语言 #流式处理 ✅ 7.5/10 | 前25% | #语音翻译 | #强化学习 | #大语言模型 #多语言 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表:Siqi Ouyang(未说明)、Shuoyang Ding(未说明)、Oleksii Hrinchuk(未说明)、Vitaly Lavrukhin(未说明)、Brian Yan(未说明)、Boris Ginsburg��未说明)、Lei Li(未说明) 💡 毒舌点评 这篇论文精准地抓住了LLM应用于同声传译时“数据质量差”和“计算开销大”这两个落地痛点,并用一套设计精巧的后训练策略(HPO)给出了有效的解决方案,实验结果也足够亮眼。不过,其核心创新更多是针对特定问题的优化框架组合,而非提出一种全新的模型架构或学习范式,对“如何生成高质量合成数据”这一上游问题本身并未深入探索。 📌 核心摘要 要解决什么问题:大语言模型(LLM)能显著提升同声传译(SST)质量,但计算开销巨大。现有通过将SST重构为多轮对话来复用KV缓存的方法,严重依赖高质量的监督微调(SFT)数据,而这类数据稀缺且合成方法难以保证质量。 方法核心是什么:提出分层策略优化(HPO)框架,用于后训练在不完美SFT数据上训练的模型。核心是引入一个分层奖励函数,同时优化翻译质量(使用COMET等指标)和延迟(如等待时间)这两个相互冲突的目标。 与已有方法相比新在哪里:不同于直接使用SFT或简单的强化学习微调,HPO通过分层奖励设计,更精细地平衡了质量与延迟。它不依赖完美的初始对话数据,而是通过后训练对现有模型进行优化,是一种更实用、鲁棒的训练范式。 主要实验结果如何:在英译中、德、日的任务上,HPO方法在1.5秒的平均延迟下,相比强基线取得了超过+7 COMET分数和+1.25 MetricX分数的显著提升。消融研究验证了不同质量奖励、分层奖励公式和分段策略的有效性。 实际意义是什么:该方法降低了部署高质量LLM-SST系统的门槛和成本,使得在资源受限或需要实时响应的场景下应用先进翻译模型成为可能,推动了SST技术的实用化。 主要局限性是什么:论文中未明确讨论。可能包括:对基础模型质量有一定依赖;分层奖励的设计需要针对具体任务进行调优;在极低延迟或极端语音条件下的表现有待进一步验证。 🏗️ 模型架构 论文的核心是训练框架而非全新的模型架构,它基于一个已有的、用于SST的LLM架构进行后训练优化。 图1展示了将同声传译(SST)任务重新表述为多轮对话的过程。源语音被分段输入,模型在生成翻译片段的同时,可以复用之前计算过的KV缓存,避免了重复计算,从而降低延迟和计算成本。这是本文工作的基础范式。 图2是本文提出的HPO框架的核心示意图。它显示了在基础SST模型之上,引入一个分层奖励(Hierarchical Reward) 机制。该奖励由两部分组成: ...

2026-04-24