Quality Assessment of Noisy and Enhanced Speech with Limited Data: UWB-NTIS System for Voicemos 2024

📄 Quality Assessment of Noisy and Enhanced Speech with Limited Data: UWB-NTIS System for Voicemos 2024 #语音质量评估 #语音增强 #迁移学习 #预训练 #少样本学习 ✅ 7.0/10 | 前25% | #语音质量评估 | #迁移学习 | #语音增强 #预训练 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Marie Kunešová(NTIS Research Centre, Faculty of Applied Sciences, University of West Bohemia in Pilsen, Czechia) 通讯作者:未说明 作者列表:Marie Kunešová(NTIS研究中心,应用科学学院,西波希米亚大学),Aleš Přázák(同上),Jan Lehečka(同上) 💡 毒舌点评 亮点在于其针对极端有限数据(100条标注)场景设计的“两阶段迁移学习+合成数据生成”策略,特别是将BAC预测巧妙地转化为SNR预测,取得了竞赛最佳结果。短板是整体框架属于成熟技术(wav2vec 2.0微调)的工程组合,且对于更困难的SIG预测任务,核心改进依赖于人工定义的“自然/伪造”二元伪标签,其理论依据和泛化能力存疑。 📌 核心摘要 要解决什么问题? 在仅提供100条主观标注语音的极端数据限制下,实现非侵入式的语音质量评估,具体目标是预测ITU-T P.835标准中的三个指标:SIG(语音质量与失真)、BAK(背景噪声侵入性)和OVRL(整体质量)。 方法核心是什么? 采用两阶段迁移学习策略,基于wav2vec 2.0预训练模型。第一阶段:在自动生成的大规模伪标签数据上微调模型,其中BAK模型学习预测SNR,SIG模型学习区分“自然语音”和“伪造/增强语音”。第二阶段:使用挑战赛提供的100条真实标注数据进行微调。 与已有方法相比新在哪里? 新在针对P.835这一特定评估任务的系统设计,尤其是为小数据场景设计的两阶段数据生成与微调流程。创新性地将BAK预测近似为SNR回归,并将SIG预测与语音伪造检测任务联系起来。赛后进一步提出通过使用人工退化数据进行wav2vec 2.0的预训练,显著提升了SIG预测性能。 主要实验结果如何? 在VoiceMOS 2024挑战赛Track 3官方评估中,该系统在BAK预测上取得最佳性能(LCC=0.867),在OVRL预测上位列第二(LCC=0.711)。赛后通过引入人工退化数据改进的模型,将SIG预测的相关性(LCC)从原始提交的0.207大幅提升至0.516。关键结果如下表所示: 模型组合 VMC 2024 评估集 (LCC) CHiME 7-UDASE (不含VMC数据) (LCC) BAK SIG OVRL (A) BAK SIG OVRL (A) 原始提交 (T04) 0.867 0.207 0.711 0.819 0.684 0.595 ClTRUS (BAK) + w2v2-base (SIG) 0.877 0.516 0.728 0.839 0.726 0.714 w2v2-dgrd (BAK) + ClTRUS (SIG) 0.868 0.296 0.695 0.860 0.766 0.746 w2v2-dgrd (BAK) + w2v2-base (SIG) 0.868 0.516 0.750 0.860 0.726 0.734 团队 T06 (冠军/亚军) 0.827 0.297 0.713 - - - Official results of VMC 2024 Track 3. 图2:VMC 2024 Track 3各团队官方结果(语句级LCC)。本系统为T04团队。 ...

2026-04-29

Ranking The Impact of Contextual Specialization in Neural Speech Enhancement

📄 Ranking The Impact of Contextual Specialization in Neural Speech Enhancement #语音增强 #迁移学习 #领域适应 #低资源 ✅ 7.5/10 | 前25% | #语音增强 | #迁移学习 | #领域适应 #低资源 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Peter Leer (Eriksholm Research Centre, Snekkersten, Denmark; Aalborg University, Department of Electronic Systems, Aalborg, Denmark) 通讯作者:未说明 作者列表:Peter Leer (Eriksholm Research Centre; Aalborg University), Svend Feldt (Eriksholm Research Centre), Zheng-Hua Tan (Aalborg University), Jan Østergaard (Aalborg University), Jesper Jensen (Eriksholm Research Centre; Aalborg University) 💡 毒舌点评 这篇论文的“经验性上界”设计很聪明,像给各类“上下文”打了一针性能兴奋剂,清晰地告诉我们在理想情况下谁是王者(说话人身份),谁是陪练(信噪比、性别)。但它的结论——一个小型专业模型能打赢十倍大的通用模型——听起来很美,却建立在“你总能准确拿到目标说话人和噪声类型”的假设上,在真实世界混乱的声学场景里,这个“神谕”般的上下文信息从何而来?论文并未给出廉价的获取方案。 ...

2026-04-29

Representation-Diverse Self-Supervision for Cross-Domain Bioacoustic Learning in Low-Resource Settings

📄 Representation-Diverse Self-Supervision for Cross-Domain Bioacoustic Learning in Low-Resource Settings #生物声学 #对比学习 #自监督学习 #迁移学习 #低资源 ✅ 7.0/10 | 前25% | #生物声学 | #对比学习 | #自监督学习 #迁移学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Dimitris N. Makropoulos(HERON - Hellenic Robotics Center of Excellence; 国家技术大学雅典分校电气与计算机工程学院;雅典研究中心机器人研究所;希腊海洋研究中心海洋学研究所) 通讯作者:未说明(论文未明确标注) 作者列表:Dimitris N. Makropoulos(同上),Christos Garoufis(HERON; 国家技术大学雅典分校; 雅典研究中心),Antigoni Tsiami(雅典研究中心),Panagiotis P. Filntisis(HERON; 雅典研究中心),Petros Maragos(HERON; 国家技术大学雅典分校; 雅典研究中心) 💡 毒舌点评 亮点:其核心想法——让模型学习同一段海豚叫声的两种不同“画像”(频谱图与能量图)之间的联系——非常巧妙,不仅有效利用了信号本身的物理特性,还意外地在完全不同的鸟类叫声识别任务上取得了优异效果,展现了生物声学中“调制模式”跨物种共享的有趣洞察。短板:实验验证的“跨域”跨度仅限于海豚与鸟类,且数据集规模偏小(预训练仅15类海豚),论文未提供代码开源计划或预训练模型,极大地限制了其作为通用生物声学预训练方法的即时可用性和影响力。 📌 核心摘要 解决的问题:在低资源生物声学领域,跨物种、跨数据集的迁移学习面临挑战,因为不同物种的发声信号虽有共性(如频率调制),但数据分布差异大。传统自监督学习(如SimCLR)依赖数据增强,可能未充分利用信号本身的多种物理表示。 方法核心:提出一种“表示多样性”的对比自监督学习框架。在预训练阶段,模型(ResNet18, MobileNetV2, ViT-B/16)学习区分同一段海豚叫声的频谱图和由Teager-Kaiser能量算子(TKEO)派生的能量图。这两种表示分别捕捉信号的功率谱密度和瞬时能量-调制特性。之后,将预训练好的编码器在鸟类叫声数据集上进行微调。 与已有方法的新颖之处:不同于SimCLR对同一表示进行随机数据增强,也不同于跨模态学习(如音频-文本),本方法首次利用同一信号的不同物理/数学表示(频谱图 vs. 能量图)构建正样本对进行对比学习。这种跨表示对比迫使模型学习更本质的、跨表示不变的声学特征。 主要实验结果: 在RFCx和BirdCLEF两个鸟类叫声数据集上,所有模型架构(ResNet18, MobileNetV2, ViT)均显示,从监督学习到SimCLR,再到对比不同窗口频谱图,最后到对比“频谱图-能量图”,性能持续提升。最佳配置(对比频谱图与离散TKEO能量图)显著优于监督基线和SimCLR。 模型 RFCx (加权F1) BirdCLEF (加权F1) ResNet18 82.38 ± 1.51% (最佳) 73.72 ± 0.40% (最佳) MobileNetV2 77.95 ± 1.12% 67.40 ± 0.68% ViT-B/16 82.10 ± 1.31% 68.12 ± 0.67% 表1:不同模型在最佳配置(对比频谱图与离散TKEO能量图)下的加权F1分数对比(数据来源于论文Table 1) 论文图2展示了虎鲸和旋转海豚的能量图与频谱图对比,直观显示了能量图对调制结构的增强效果。 实际意义:为低资源生物声学监测提供了一种有效的预训练策略。通过利用海豚叫声数据(可能相对易获取)预训练,能够提升鸟类(或其他物种)叫声分类的性能,有助于生态保护和生物多样性监测。 主要局限性:预训练数据(海豚)和下游任务数据(鸟类)虽然都包含调制成分,但物种差异巨大,框架的泛化能力到更多类群(如昆虫、蛙类)未被验证。数据集规模较小(预训练15类,下游测试集每类50-250样本),在大规模实际场景中的鲁棒性未知。论文未提供代码和预训练模型。 🏗️ 模型架构 本文提出的管道架构分为三个阶段(见论文图3): ...

2026-04-29

SAUNA: Song-Level Audio & User-Listening Data Neural Alignment

📄 SAUNA: Song-Level Audio & User-Listening Data Neural Alignment #音乐信息检索 #预训练 #迁移学习 #音乐理解 ✅ 7.0/10 | 前25% | #音乐信息检索 | #预训练 | #迁移学习 #音乐理解 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Morgan Buisson(Spotify;Nantes Université, École Centrale Nantes, CNRS, LS2N, UMR 6004, Nantes, France) 通讯作者:未说明 作者列表:Morgan Buisson(Spotify;Nantes Université, École Centrale Nantes, CNRS, LS2N, UMR 6004, Nantes, France)、Juan José Bosch(Spotify)、Daniel Stoller(Spotify) 💡 毒舌点评 论文巧妙地将大规模用户划动行为数据转化为“参与度曲线”,为音频模型提供了行为监督信号,这个想法很聪明。然而,模型架构本身(CNN + TCN)是音乐处理领域的常见方案,创新更多在于数据构建和任务应用上;此外,虽然论文提供了Spotify内部方法作为基线,但核心代码与模型的不开源,使得其可复现性大打折扣。 📌 核心摘要 要解决的问题:音乐信息检索(MIR)任务,如预览生成、结构分析,依赖于识别歌曲中吸引听众的时刻,但现有监督信号(如人工标注、启发式规则)成本高、主观性强或有限。 方法核心:提出SAUNA模型,使用大规模匿名化用户流媒体划动行为数据构建“覆盖曲线”(Coverage Curve)作为监督信号,训练一个CNN-TCN神经网络直接从音频log-Mel频谱图预测该曲线(1Hz分辨率),曲线的峰值对应预览起点。 与已有方法相比新在哪里:区别于依赖预定义启发式(如副歌检测)、情感关键点或小规模标注数据的方法,SAUNA直接从大规模、隐式的用户真实消费行为中学习“参与度”的音频表征,使其更具普适性,且能捕捉非重复性的吸引点。 主要实验结果: 预览生成:在主观听测中,SAUNA预览在“参与度”和“代表性”评分上与Spotify内部方法、基于用户覆盖曲线的理想方法持平,显著优于副歌检测和随机采样方法。 结构属性:SAUNA生成的预览有92%包含一个估计的结构边界,仅次于副歌检测方法(96%),且预览倾向于在段落转换前4-6秒开始,偏好“主歌→副歌”的过渡。 迁移学习:在Harmonix数据集的音乐结构分析任务上,以SAUNA预训练权重初始化的模型,在所有指标(如边界检测HR3F、段落分类准确率)上均显著优于从随机初始化训练的模型。 关键对比数据(结构分析任务,见论文表1): 指标 SAUNA预训练 随机初始化 LinkSeg [19] HR.5F 0.572 ±0.013 0.552 ±0.017 0.568 HR3F 0.747 ±0.013 0.696 ±0.024 0.717 PFC 0.697 ±0.022 0.655 ±0.027 0.771 V 0.687 ±0.021 0.639 ±0.025 - Acc 0.707 ±0.018 0.661 ±0.029 0.742 实际意义:证明了用行为数据监督学习到的音频表示是通用且有效的,可同时服务于音乐预览生成和结构分析,为MIR任务提供了一种新的、可扩展的预训练范式。 主要局限性:依赖特定流媒体平台的行为数据,可能继承算法偏差并忽略文化差异;评估时使用的行为信号本身可能与结构边界不完全对齐;主观测试样本量(16人)相对较小;1Hz的预测分辨率较为粗糙。 🏗️ 模型架构 SAUNA模型采用标准的CNN-TCN架构,用于处理音频并输出时序预测。 ...

2026-04-29

SELD-MOHA: A Fine-Tuning Method with the Mixture of Heterogeneous Adapters for Sound Event Localization and Detection

📄 SELD-MOHA: A Fine-Tuning Method with the Mixture of Heterogeneous Adapters for Sound Event Localization and Detection #音频事件检测 #声源定位 #迁移学习 #多通道音频 ✅ 7.0/10 | 前25% | #音频事件检测 | #迁移学习 | #声源定位 #多通道音频 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yun Liang (华南农业大学) 通讯作者:Cankun Zhong (华南农业大学, email: ck.zhong@scau.edu.cn) 作者列表:Yun Liang (华南农业大学), Peng Zhang (华南农业大学), Cankun Zhong (华南农业大学), Yishen Lin (华南农业大学), Luoan Gu (华南农业大学), Yan Chen (华南农业大学, 温氏食品集团股份有限公司) 💡 毒舌点评 亮点:在适配器设计上做得相当扎实,没有满足于用一个万能MLP适配器,而是精心设计了Conv、DCT、SE三种分别针对时频局部结构、去相关、通道注意力的异构适配器,并通过可视化(图1)清晰展示了各自专注的“工作区域”,这种“专家治领域”的思路值得借鉴。 短板:论文最大的遗憾是“关门谢客”——没有开源代码。对于一个强调“参数高效”和“可复现”的微调方法,不提供代码就像厨师不分享菜谱,大大降低了工作对社区的实际推动力。 ...

2026-04-29

Semantic Anchor Transfer from Short to Long Speech in a Distillation-Based Summarization Framework

📄 Semantic Anchor Transfer from Short to Long Speech in a Distillation-Based Summarization Framework #语音摘要 #知识蒸馏 #端到端 #迁移学习 ✅ 7.5/10 | 前25% | #语音摘要 | #知识蒸馏 | #端到端 #迁移学习 学术质量 7.5/7 | 选题价值 7.0/2 | 复现加成 -0.3 | 置信度 高 👥 作者与机构 第一作者:Xiang He (新疆大学计算机科学与技术学院,新疆多模态信息技术工程研究中心) 通讯作者:Liang He (新疆大学计算机科学与技术学院,新疆多模态信息技术工程研究中心;新疆大学智能科学与技术学院;清华大学电子工程系) 作者列表:Xiang He (新疆大学计算机科学与技术学院,新疆多模态信息技术工程研究中心)、Xuejian Zhao (新疆大学计算机科学与技术学院,新疆多模态信息技术工程研究中心)、Longwei Li (新疆大学计算机科学与技术学院,新疆多模态信息技术工程研究中心)、Liang He (新疆大学计算机科学与技术学院,新疆多模态信息技术工程研究中心;新疆大学智能科学与技术学院;清华大学电子工程系) 💡 毒舌点评 亮点:论文直击当前端到端语音摘要的一个实际痛点——长语音处理中的语义漂移问题,并提出了一个逻辑自洽且工程上可行的“锚点迁移”两阶段训练策略,实验也证实了其有效性。短板:核心创新“锚点迁移”本质上是对现有Q-Former架构的一种适配性工程优化和训练策略设计,在基础理论或模型结构上的原创性贡献相对有限;此外,论文对伪标签噪声这一关键问题仅在动机部分提及,实验中未做深入分析或缓解。 📌 核心摘要 要解决什么问题:在基于知识蒸馏的端到端语音摘要系统中,现有方法存在冗余token多、推理效率低、难以建模长语音跨段依赖、分段处理导致语义漂移等问题。 方法核心是什么:提出一种增强的蒸馏框架。首先,设计一个改进的锚点感知Q-Former(Anchor-aware Q-Former),用于对短语音进行语义感知的特征压缩和对齐。其次,提出“语义锚点迁移”策略:将短语音阶段学到的输出投影层(W)作为“语义锚点”,通过滑动窗口分段的Q-Former将其迁移到长语音输入,并配合“冻结-解冻”的两阶段训练策略,以抑制语义漂移并稳定训练。 与已有方法相比新在哪里:主要新在两个方面:1)使用改进的Q-Former替代了原有的池化、交互式注意力或层级合并等融合策略,实现了更高效的语义压缩;2)提出了将短语音上学到的投影矩阵作为“锚点”迁移到长语音处理中,并结合专门设计的两阶段训练流程,这是解决跨段语义漂移问题的具体新方案。 主要实验结果如何:在CNN/DailyMail长语音数据集上,所提方法(QF*+ LLM)的ROUGE-L分数为47.96,相对最强基线(Pooling+ LLM的37.48)提升了约10%。推理时间从1.15小时降至1.08小时,输入token数从1125个降至264个。消融实验证明,省略“冻结锚点”的第一阶段训练会导致METEOR分数从49.14显著下降至43.01。关键实验数据如下表所示: 数据集 模型 Rouge-1 Rouge-2 Rouge-L METEOR BERTScore Tokens Time CNN/DailyMail (Anchor Transfer) Ground-truth text + LLM 53.79 29.83 49.67 56.48 90.66 — — WeNet + LLM 49.62 21.31 43.88 39.57 87.83 — — Stack + LLM [11] 44.58 20.05 40.11 37.90 86.30 1125 1.25h Multi-head + LLM [22] 31.89 7.55 27.54 22.67 84.82 60 1.20h Pooling + LLM [9] 51.12 27.50 37.48 45.63 90.50 1125 1.15h QF*+ LLM (Ours) 53.21 25.59 47.96 49.14 89.37 264 1.08h w/o Stage-1 52.03 24.26 46.84 43.01 88.34 264 1.13h w/o Stage-2 52.96 25.09 47.86 44.10 89.37 264 1.10h 实际意义是什么:该方法为在高质量配对数据稀缺条件下,如何利用冻结的大语言模型(LLM)高效处理长语音并生成高质量摘要提供了一种有效的解决方案,通过“锚点迁移”降低了长语音处理的难度和计算成本。 主要局限性是什么:1)核心创新偏向工程优化和策略设计,在架构原创性上深度有限;2)实验主要基于合成语音(CNN/DailyMail)和LibriSpeech读语,对真实世界嘈杂、对话式长语音的泛化能力有待验证;3)论文未讨论并分析其使用的伪标签本身的质量和噪声影响。 🏗️ 模型架构 该模型是一个基于知识蒸馏的端到端语音摘要系统,核心是在冻结的大语言模型(LLM)前,接入一个可训练的语音编码器和一个跨模态桥接模块(Q-Former)。整体架构如图2所示。 ...

2026-04-29

SightSound-R1: Cross-Modal Reasoning Distillation from Vision to Audio Language Models

📄 SightSound-R1: Cross-Modal Reasoning Distillation from Vision to Audio Language Models #音频问答 #知识蒸馏 #多模态模型 #迁移学习 #音视频 ✅ 7.5/10 | 前25% | #音频问答 | #知识蒸馏 | #多模态模型 #迁移学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文中作者列表排序未明确指定第一作者) 通讯作者:未说明 作者列表:Qiaolin Wang(Columbia University, New York, NY, USA)、Xilin Jiang(Columbia University, New York, NY, USA)、Linyang He(Columbia University, New York, NY, USA)、Junkai Wu(University of Washington, Seattle, WA, USA)、Nima Mesgarani(Columbia University, New York, NY, USA) 💡 毒舌点评 亮点在于巧妙地利用“视觉可听”的假设,将强大的视觉语言模型(LVLM)作为“免费的”教师来生成音频推理数据,从而绕过了音频链式思考(CoT)数据稀缺的瓶颈,思路清晰且实用。短板则是这一核心假设存在天然局限,导致生成的推理链可能基于视觉臆测而非真实音频内容(论文中也承认了语音、音乐任务性能下降),且方法的最终效果高度依赖外部强大LVLM和验证模型的能力,并非完全独立。 ...

2026-04-29

SpeechMapper: Speech-To-Text Embedding Projector for LLMs

📄 SpeechMapper: Speech-To-Text Embedding Projector for LLMs #语音大模型 #预训练 #零样本 #大语言模型 #迁移学习 ✅ 7.0/10 | 前25% | #语音大模型 | #预训练 | #零样本 #大语言模型 学术质量 6.8/7 | 选题价值 6.5/2 | 复现加成 0 | 置信度 中 👥 作者与机构 第一作者:Biswesh Mohapatra (Inria Paris) 通讯作者:未说明 作者列表:Biswesh Mohapatra (Inria Paris), Marcely Zanon Boito (NAVER LABS Europe), Ioan Calapodescu (NAVER LABS Europe) 💡 毒舌点评 这篇论文的亮点在于其务实且高效的系统设计:通过将预训练阶段与LLM解耦,仅依赖嵌入层匹配,使得在消费级GPU上预训练投影器成为可能,且1K步的适应阶段就能达到强基线水平,这为资源受限团队快速接入语音能力提供了可行方案。不过,短板也明显:论文缺乏代码公开,且评估任务局限于ST和SQA,对于“Speech-to-Text Embedding Projector”这一名称所承诺的通用性,实验证据稍显单薄。 📌 核心摘要 问题:现有将语音基础模型(SFM)接入大语言模型(LLM)的方法(如联合微调)计算成本高昂,且容易在特定任务或提示上过拟合,泛化能力不足。 方法核心:提出SpeechMapper,一个两阶段的语音到LLM嵌入投影器。第一阶段(预训练)仅使用LLM的嵌入层,通过最小化投影器输出与对应文本LLM嵌入的均方误差(MSE)来学习映射,无需LLM的前向计算。第二阶段(适应)仅用1K步指令调优(IT)将预训练好的投影器连接到冻结的LLM上。 创新点:1) 解耦训练:预训练阶段独立于LLM,降低了硬件需求和计算成本。2) pad填充的MSE损失:通过向目标嵌入序列添加pad token来隐式对齐长度不匹配的语音和文本序列,避免了显式对齐器。3) 灵活的适应策略:在第二阶段通过调节MSE损失的权重σ,可以平衡零样本泛化(σ>0)与任务特定性能(σ=0)。 主要实验结果:在语音翻译(ST)和口语问答(SQA)任务上,SpeechMapper表现优异。在零样本(任务无关)设置下,其最佳变体(使用EuroLLM)在SQA上与IWSLT25竞赛最佳系统(BEST-IWSLT25-IF)持平甚至超越;在任务特定设置下,仅用1K步训练便全面超越该基线。例如,在Spoken SQuAD上,其任务特定版本准确率达87.4%,与基线持平。 任务 指标 数据集 SpeechMapper (零样本) SpeechMapper (任务特定) BEST-IWSLT25-IF Transcripts + EuroLLM ST (COMET) en-es EuroParl 79.9 85.4 83.5 85.9 ST (COMET) en-zh CoVoST2 72.0 79.9 80.7 80.0 SQA (Acc.) PartII LibriSQA 64.3 68.1 62.5 73.4 5. 实际意义:提供了一种成本效益高、可扩展的方案,用于将现有文本LLM快速赋能语音能力,且能平衡零样本通用性与任务专精性,降低了语音AI应用开发的门槛。 6. 主要局限性:1) 评估仅限于两个任务(ST和SQA),对于其作为通用“嵌入投影器”的广泛适用性证明不足。2) 在更大型或不同架构的LLM上(如Llama 3.1 8B)效果不稳定,标准差较大。3) 论文未开源代码和模型。 🏗️ 模型架构 SpeechMapper的整体架构分为三个部分:冻结的语音基础模型(SFM)、投影器(Projector)和冻结的大语言模型(LLM)。其数据流与交互过程如下: ...

2026-04-29

Stress Prediction from Temporal Emotion Trajectories in Clinical Patient-Physician Conversations

📄 Stress Prediction from Temporal Emotion Trajectories in Clinical Patient-Physician Conversations #语音情感识别 #多任务学习 #迁移学习 #少样本 ✅ 7.0/10 | 前25% | #语音情感识别 | #多任务学习 | #迁移学习 #少样本 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Tobias Pertlwieser(Friedrich-Alexander-Universität Erlangen-Nürnberg, Pattern Recognition Lab) 通讯作者:Tobias Pertlwieser†(同第一作者) 作者列表: Tobias Pertlwieser†, Hiuching Hung (Friedrich-Alexander-Universität Erlangen-Nürnberg) Tomás Arias-Vergara (Friedrich-Alexander-Universität Erlangen-Nürnberg) Paula Andrea Pérez-Toro (Friedrich-Alexander-Universität Erlangen-Nürnberg) Carolin Müller, Meike Schmitt, Hanna Huebner, Philipp Kreis, Irem Karaman, Miriam Saatze, Annika Krückel, Chloé Goossens, Katharina Seitz, Jonathan Singer (Department of Gynecology and Obstetrics, University Hospital Erlangen; Comprehensive Cancer Center Erlangen–EMN) Armine Garibyan, Peter Uhrig (Department of English and American Studies, Friedrich-Alexander-Universität Erlangen-Nürnberg) Peter A. Fasching, Manuel Hörner (Department of Gynecology and Obstetrics, University Hospital Erlangen; Comprehensive Cancer Center Erlangen–EMN; Pattern Recognition Lab) Andreas Maier (Pattern Recognition Lab, Friedrich-Alexander-Universität Erlangen-Nürnberg) 💡 毒舌点评 亮点:提出将“情绪轨迹”作为压力预测的中间表征,比直接使用原始声学特征或简单的统计量更具物理可解释性,并通过注意力机制巧妙定位了对话中的“压力时刻”。短板:核心数据集只有30名患者,这个样本量在深度学习时代显得过于脆弱,其结论的可靠性和模型的泛化能力亟需更大规模数据的验证,目前更像是一个针对特定小群体的可行性展示。 ...

2026-04-29

Synthesized Data Selection via Score Distribution Matching for Te Reo Māori Automatic Speech Recognition

📄 Synthesized Data Selection via Score Distribution Matching for Te Reo Māori Automatic Speech Recognition #语音识别 #数据增强 #低资源 #迁移学习 #零样本 🔥 8.0/10 | 前25% | #语音识别 | #数据增强 | #低资源 #迁移学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhihan Wang(温州理工学院) 通讯作者:Ruili Wang(温州理工学院;梅西大学数学与计算科学学院) 作者列表:Zhihan Wang(温州理工学院)、Feng Hou(未说明)、Ruili Wang(温州理工学院,梅西大学数学与计算科学学院) 💡 毒舌点评 论文的亮点在于为低资源语音识别中“合成数据越多越好”这一常见误区提供了清晰、可操作的解决方案(分数分布匹配),实验对比也做得非常扎实。短板则是方法高度依赖于预训练Whisper模型自身的打分能力,若该模型对目标语言本身识别不准,整个选择策略的基础就会动摇,论文对此缺乏深入讨论。 📌 核心摘要 问题:在低资源自动语音识别(ASR)中,使用零样本TTS生成的合成数据进行微调会遇到“域不匹配”问题,即合成语音的分布与真实语音有差异,导致单纯增加合成数据量无法持续提升性能,甚至会变差。 方法核心:提出一种基于分数分布匹配的合成数据选择方法。该方法首先利用预训练的Whisper-large-v3模型为真实数据和合成数据计算字符错误率(CER)作为质量分数;然后,将真实数据的分数分布拟合为一个先验分布(Beta分布);最后,通过拒绝采样算法,从合成数据中筛选出一个子集,使其分数分布与真实数据的先验分布对齐。 创新与不同:与依赖外部预训练资源(如英语说话人嵌入、判别器)的现有方法(如Synt++, Wang et al.)不同,本方法仅依赖目标语言本身的预训练ASR模型(Whisper)进行打分,更适合资源极度匮乏的场景。同时,它显式地考虑并平衡了合成数据中不同质量样本的分布,而非简单设定质量阈值。 实验结果:在Te Reo Māori(毛利语)ASR任务上,使用真实数据(27小时)+ 经本方法筛选的合成数据(从520小时中选出约230小时)微调Whisper-large-v3,达到了最优性能:WER 21.4%, CER 9.9%。这显著优于仅使用真实数据(WER 28.3%),也优于其他所有基线方法,包括Adapter Double-way Fine-tuning(WER 22.6%, CER 11.0%)。具体结果对比见下表: 方法 测试集WER (%) 测试集CER (%) Whisper-large-v3 (无微调) 37.9 13.8 27小时真实数据 28.3 12.8 + 360小时未筛选合成数据 22.9 11.2 + 520小时未筛选合成数据 24.3 11.5 Synt++ [17] 24.6 12.2 Wang et al. [18] 23.8 11.5 Adapter Double-way Fine-tuning [19] 22.6 11.0 本文方法 (True + Score-distribution-matching) 21.4 9.9 实际意义:为低资源、濒危语言的ASR模型训练提供了一种有效且计算高效的合成数据筛选策略,能最大化利用有限的真实数据和TTS生成能力,对相关领域的研究者和工程师有直接应用价值。 主要局限性:方法的有效性严重依赖于预训练ASR模型(此处为Whisper)在目标语言上的初始性能(用于计算CER)。如果基础模型对目标语言识别很差,则CER作为质量分数的可靠性存疑。此外,论文未深入分析最终筛选出的合成数据子集(230小时)具有哪些具体特征。 🏗️ 模型架构 论文未提出新的神经网络模型架构,而是提出一个数据选择算法流程。整体流程如下: ...

2026-04-29