Emilia-NV: A Non-Verbal Speech Dataset with Word-Level Annotation for Human-Like Speech Modeling

📄 Emilia-NV: A Non-Verbal Speech Dataset with Word-Level Annotation for Human-Like Speech Modeling #语音识别 #语音合成 #数据集 #零样本 ✅ 7.5/10 | 前25% | #语音识别 | #数据集 | #语音合成 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Huan Liao(The Chinese University of Hong Kong, Shenzhen)(论文注明与Qinke Ni同等贡献) 通讯作者:未明确说明(论文中未明确指出通讯作者) 作者列表:Huan Liao(The Chinese University of Hong Kong, Shenzhen),Qinke Ni(The Chinese University of Hong Kong, Shenzhen),Yuancheng Wang(The Chinese University of Hong Kong, Shenzhen),Yiheng Lu(The Chinese University of Hong Kong, Shenzhen),Haoyue Zhan(Guangzhou Quwan Network Technology),Pengyuan Xie(Guangzhou Quwan Network Technology),Qiang Zhang(Guangzhou Quwan Network Technology),Zhizheng Wu(The Chinese University of Hong Kong, Shenzhen) 💡 毒舌点评 亮点在于系统性地填补了普通话副语言词级标注数据的空白,并提出了一个可扩展的标注流水线,为“类人”语音建模提供了急需的燃料。短板在于TTS部分的创新更多是“应用验证”而非“方法突破”,且文中对模型训练的关键细节(如超参数)披露不足,让想复现的同行感到些许乏力。 ...

2026-04-29

Emo-TTA: Improving Test-Time Adaptation of Audio-Language Models for Speech Emotion Recognition

📄 Emo-TTA: Improving Test-Time Adaptation of Audio-Language Models for Speech Emotion Recognition #语音情感识别 #音频大模型 #领域适应 #零样本 ✅ 7.0/10 | 前25% | #语音情感识别 | #领域适应 | #音频大模型 #零样本 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jiacheng Shi(College of William & Mary) 通讯作者:未说明 作者列表:Jiacheng Shi(College of William & Mary)、Hongfei Du(College of William & Mary)、Y. Alicia Hong(George Mason University)、Ye Gao(College of William & Mary) 💡 毒舌点评 亮点在于其“测试时适配”思路非常务实,无需访问源数据或更新模型权重,仅靠维护一个轻量的统计量就能持续改善模型在陌生口音或录音环境下的表现,这在工业部署中极具吸引力。短板是其底层假设(特征服从高斯分布且共享协方差)可能过于简化,对于情感这种高度复杂且非线性的概念,长期来看,这种静态分布模型可能无法捕捉更细微的适应需求。 ...

2026-04-29

Emotional Dimension Control in Language Model-Based Text-To-Speech: Spanning a Broad Spectrum of Human Emotions

📄 Emotional Dimension Control in Language Model-Based Text-To-Speech: Spanning a Broad Spectrum of Human Emotions #语音合成 #流匹配 #预训练 #零样本 #语音情感识别 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #预训练 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 中 👥 作者与机构 第一作者:Kun Zhou(阿里巴巴集团通义实验室,新加坡) 通讯作者:未说明 作者列表:Kun Zhou(阿里巴巴集团通义实验室,新加坡)、You Zhang(美国罗切斯特大学)、Dianwen Ng(阿里巴巴集团通义实验室,新加坡)、Shengkui Zhao(阿里巴巴集团通义实验室,新加坡)、Hao Wang(阿里巴巴集团通义实验室,新加坡)、Bin Ma(阿里巴巴集团通义实验室,新加坡) 💡 毒舌点评 亮点在于将经典心理学理论(PAD模型)与前沿的语言模型TTS框架深度结合,实现了从离散情感标签到连续情感空间控制的优雅跳转,为情感语音合成提供了更富表现力的控制范式。短板是实验部分更像一场“理论验证秀”(如图2展示合成语音的声学特征与理论吻合),但在与当前最强系统(如使用大规模情感数据或更强解码方法的模型)的“硬碰硬”对比和系统性消融实验上显得保守和不足,使得其宣称的优势说服力打了折扣。 📌 核心摘要 要解决什么问题:当前的情感语音合成(TTS)系统受限于数据集中的少量离散情感标签(如喜怒哀乐),无法覆盖人类丰富(理论上有约34000种)且微妙的情感光谱,导致生成语音的情感表达有限、不自然。 方法核心是什么:本文提出一个基于语言模型的TTS框架,核心是引入情感维度(ED)预测器和连续情感维度控制。ED预测器利用心理学期理论(PAD模型:愉悦度-唤醒度-支配度),将语音数据集中的离散情感标签映射为连续的3维向量。在TTS训练和推理时,将ED向量作为额外条件输入语言模型,从而引导语音合成。 与已有方法相比新在哪里:相比传统基于离散标签的监督学习或基于参考语音的风格迁移方法,本文方法无需在TTS训练阶段使用显式情感标签,仅通过连续的ED向量即可在推理时灵活控制生成语音的情感风格,且能探索训练数据中未出现过的情感组合。 主要实验结果如何:在零样本情感克隆任务上,本文方法的语音自然度MOS(4.54)优于基线CosyVoice(4.36)。在情感可懂度(E-MOS)主观评估中,本方法在所有测试情感上得分均高于CosyVoice基线。XAB测试表明,系统能较好地区分PAD维度相近的情感对(如愤怒vs焦虑,正确匹配率约84%)。客观上,合成语音的音高和频谱通量统计特征与理论预期相符(如图2所示)。 实际意义是什么:该框架使得TTS系统能够更精细、灵活地合成多样化的情感语音,无需依赖大规模标注数据,有望提升对话系统、有声读物、虚拟助手等应用的情感交互自然度和用户体验。 主要局限性是什么:1) 情感维度预测器依赖于已有的离散情感标签数据集进行训练,其质量可能受限于原始标签的噪声和偏差;2) 实验评估中,与最先进的情感TTS系统(如CosyVoice的情感扩展版本EmoCtrl-TTS)的直接对比缺失,且缺乏关键模块的消融研究;3) 当前工作主要在英语单语种上进行验证,多语言适应性未探讨。 🏗️ 模型架构 本论文的框架包含两个主要阶段:情感维度(ED)预测器训练和TTS模型训练/推理。 ...

2026-04-29

FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec

📄 FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec #语音转换 #扩散模型 #零样本 #语音编解码器 🔥 8.0/10 | 前25% | #语音转换 | #扩散模型 | #零样本 #语音编解码器 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Yurii Halychanskyi(University of Illinois Urbana-Champaign, The Grainger College of Engineering, Siebel School of Computing and Data Science) 通讯作者:未说明 作者列表:Yurii Halychanskyi(UIUC)、Cameron Churchwell(UIUC)、Yutong Wen(UIUC)、Volodymyr Kindratenko(UIUC) 💡 毒舌点评 亮点在于巧妙地将扩散模型的噪声控制机制转化为口音强度的“旋钮”,首次实现了在口音转换中对“转多少”的显式、平滑控制,这对实际应用非常友好。短板是训练数据“作弊”——只用了美式英语单说话人(LJSpeech),这好比只学会了标准答案却没练习过如何修改各地“方言”作业,其面对真正多样化非母语口音时的泛化能力和适应性存疑,而论文对此缺乏深入验证。 📌 核心摘要 问题:现有的口音转换方法缺乏对转换强度的显式控制,难以在“更地道”和“更像本人”之间灵活权衡。 方法核心:提出FAC-FACodec框架,利用FACodec将语音解耦,仅对内容(发音)潜变量zc1进行建模。在训练时,模型学习从加噪的zc1中恢复出美式英语的先验分布。在推理时,通过选择初始加噪的时间步t_start来控制转换强度:t_start越大,表示从越“混乱”的状态开始去噪,结果越偏向先验(美式发音),但可能丢失更多原始特征。 创新点:这是首个提供用户可控参数来调节口音转换强度的框架;仅需目标口音(美式英语)的语音和转录文本进行训练,实现零样本转换;专注于发音层面的修改,严格保留说话人的韵律和音色。 主要实验结果:在L2-Arctic数据集(6种非母语口音)上测试,随着t_start从25增至100,美式口音分类器得分(Acc)从72.22平均提升至89.86,而说话人相似度(SS)从0.97降至0.88,词错误率(WER)从0.07升至0.15,证明了转换强度与身份保留之间的可控权衡。与基线系统相比,在 t_start=100时,本方法在说话人相似度和WER上持平或更优,但在口音得分上通常低于同时重构韵律的系统。 关键数据表(节选): ...

2026-04-29

GLAP: General Contrastive Audio-Text Pretraining Across Domains and Languages

📄 GLAP: General Contrastive Audio-Text Pretraining Across Domains and Languages #音频检索 #对比学习 #预训练 #多语言 #零样本 🔥 8.5/10 | 前25% | #音频检索 | #对比学习 #预训练 | #对比学习 #预训练 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Heinrich Dinkel (MiLM Plus, Xiaomi Inc., China) 通讯作者:未说明 作者列表:Heinrich Dinkel (MiLM Plus, Xiaomi Inc., China)、Zhiyong Yan (MiLM Plus, Xiaomi Inc., China)、Tianzi Wang (MiLM Plus, Xiaomi Inc., China)、Yongqing Wang (MiLM Plus, Xiaomi Inc., China)、Xingwei Sun (MiLM Plus, Xiaomi Inc., China)、Yadong Niu (MiLM Plus, Xiaomi Inc., China)、Jizhong Liu (MiLM Plus, Xiaomi Inc., China)、Gang Li (MiLM Plus, Xiaomi Inc., China)、Junbo Zhang (MiLM Plus, Xiaomi Inc., China)、Jian Luan (MiLM Plus, Xiaomi Inc., China) 💡 毒舌点评 亮点:GLAP真正实现了将语音内容理解无缝整合进音频-文本对齐框架,并在多语言语音任务上取得了远超前辈模型(如L-CLAP, MSCLAP)的惊人效果,证明了“一个模型通吃所有音频类型”的可行性。短板:其语音理解能力的显著提升,很大程度上归功于选择了对语音建模能力强的Dasheng作为音频编码器,这更像是一个工程上的“正确组合”,而非方法论上的根本性突破,且其性能在非英语语言的零样本声音分类上仍有明显衰减。 ...

2026-04-29

Group Relative Policy Optimization for Text-to-Speech with Large Language Models

📄 Group Relative Policy Optimization for Text-to-Speech with Large Language Models #语音合成 #强化学习 #多语言 #零样本 #语音大模型 🔥 8.0/10 | 前25% | #语音合成 | #强化学习 | #多语言 #零样本 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Chang Liu(中国科学技术大学,国家语音及语言信息处理工程技术研究中心) 通讯作者:Zhen-Hua Ling(中国科学技术大学,国家语音及语言信息处理工程技术研究中心) 作者列表:Chang Liu(中国科学技术大学),Ya-Jun Hu(科大讯飞研究院),Ying-Ying Gao(九天人工智能研究院),Shi-Lei Zhang(九天人工智能研究院),Zhen-Hua Ling(中国科学技术大学) 💡 毒舌点评 亮点在于巧妙地将源自数学推理的GRPO算法“移植”到语音合成领域,并用一个现成的ASR模型构建了简单有效的复合奖励,实现了训练复杂度的显著降低和性能的稳定提升。短板则在于对“自然度提升”的深层机理探讨不足,仅通过MOS分数和少量示例论证,缺乏更系统的声学或韵律学分析,且Llasa-1B上的主观评估结果不佳也未得到充分解释。 📌 核心摘要 问题:现有基于大语言模型(LLM)的文本到语音(TTS)模型在使用强化学习(RL)进行微调时,面临训练流程复杂(如PPO需要维护价值模型)、或依赖昂贵的偏好数据(如DPO)等问题。 方法核心:提出一种基于分组相对策略优化(GRPO)的微调方法。该方法利用一个现成的自动语音识别(ASR)模型,从生成的语音波形中计算字符错误率(CER)和负对数似然(NLL),并通过调和平均融合为一个复合奖励信号。该奖励用于计算组内相对优势,从而微调预训练的LLM-TTS模型。 创新点:首次将GRPO算法应用于LLM-based TTS的微调;设计了一种无需额外训练模型、结合客观可懂度(CER)与模型置信度(NLL)的复合奖励函数。 主要实验结果:在CosyVoice2和Llasa-1B两个开源基线模型上,GRPO微调显著提升了零样本合成的可懂度(CER/WER降低)和自然度(MOS提升)。例如,对CosyVoice2,中文CER从1.41降至1.07,英文WER从2.46降至2.30;主观平均意见得分(MOS)在四种语言上均有统计显著提升(如中文从4.42提升至4.58)。消融实验证明,结合CER与NLL的复合奖励优于单一奖励。 实际意义:该方法简化了LLM-TTS模型的RL训练管线,使其更稳定、易于实施,并有效提升了合成语音的质量和鲁棒性。 主要局限性:方法依赖于一个高质量的ASR模型作为奖励提供者;论文未深入分析NLL奖励如何具体改善语音自然度的机理;在Llasa-1B模型上,RL微调未能带来主观自然度的显著提升,原因未充分探究。 🏗️ 模型架构 本文的核心贡献是提出一种基于GRPO的微调流程,而非一个全新的TTS生成架构。其流程如图2所示,适用于两类主流的LLM-based TTS模型。 图2:GRPO微调流程。灰色模块表示冻结。预训练的语音Token LLM作为策略模型πθ,同时初始化参考模型πref(冻结)。对于输入文本y,策略模型进行G次采样得到一组输出语音token O。这些token经解码器(如Codec解码器或流匹配+声码器)转换为波形X。随后,使用一个现成的ASR模型(如Whisper)对X进行识别,并计算复合奖励R。根据奖励计算组内相对优势A,最后通过最大化GRPO目标函数(公式7)更新策略模型参数。 ...

2026-04-29

Hierarchical Discrete Flow Matching For Multi-Codebook Codec-Based Text-To-Speech

📄 Hierarchical Discrete Flow Matching For Multi-Codebook Codec-Based Text-To-Speech #语音合成 #流匹配 #零样本 #音频生成 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #零样本 #音频生成 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 中 👥 作者与机构 第一作者:未说明(论文中列出了多位作者,未明确指出第一作者) 通讯作者:未说明(论文中未明确指出) 作者列表:Joun Yeop Lee(三星研究院,三星电子)、Heejin Choi(三星研究院,三星电子)、Min-Kyung Kim(三星研究院,三星电子)、Ji-Hyun Lee(三星研究院,三星电子)、Hoon-Young Cho(三星研究院,三星电子) 💡 毒舌点评 该论文巧妙地将RVQ编解码器的“由粗到细”先验知识,内化为流匹配模型的训练课程与推理调度,逻辑清晰且实验增益显著,这是其最亮眼的工程创新。然而,论文对训练细节的“黑箱化”处理(如模型具体大小、完整超参数列表、训练时长)和仅有演示页面而无代码公开的现状,让其学术严谨性和社区复现性大打折扣。 📌 核心摘要 要解决什么问题:现有将离散流匹配(DFM)应用于基于残差向量量化(RVQ)的文本到语音(TTS)时,通常将所有码本视为同等,忽略了浅层码本(捕获粗结构)与深层码本(细化细节)之间的层次依赖关系,导致性能受限。 方法核心是什么:提出分层离散流匹配(H-DFM)。核心包括两方面:训练阶段,采用随机粗细模式课程学习——粗模式下遮蔽细码本噪声样本,仅更新粗码本头;细模式下用真实粗码本条件化,仅更新细码本头。推理阶段,采用粗偏向的两阶段调度——先用大部分步骤(Bc步)稳定粗码本(全局结构),再用少量步骤(Bf步)细化细码本。 与已有方法相比新在哪里:首次系统性地将RVQ的层次结构显式对齐到DFM的训练与推理过程中。相比直接应用DFM(F5-DFM),H-DFM通过架构(多头)和策略(课程学习、偏向调度)强制模型学习码本间的依赖关系,而非独立预测。 主要实验结果如何: 在零样本TTS评估中(NFE=32,粗细比例1/16),H-DFM相比基线显著提升。 关键客观指标对比: 模型 WER (%) ↓ SECS ↑ UTMOS ↑ F5-TTS (连续FM基线) 4.559 0.605 3.853 F5-DFM (朴素离散FM) 4.434 0.564 4.013 F5-H-DFM (本文方法) 3.036 0.609 4.205 H-DFM在可懂度(WER)和说话人相似度(SECS)上均取得最优,并在自然度(UTMOS)上也有较大提升。 消融实验表明,粗细推理比例(rcf=1/16)优于更平衡的比例(1/8, 1/2),验证了粗偏向策略的有效性。 实际意义是什么:为基于RVQ的高质量、非自回归TTS提供了一种更高效的解码方案。通过尊重编解码器的设计原理,可以在固定计算预算下获得更好的合成质量,对追求低延迟和高质量语音合成的工业应用有直接价值。 主要局限性:方法依赖于特定编解码器(HiFi-Codec)的固定层次结构和预先定义的粗细划分;训练与推理调度中的超参数(如pc=0.7, rcf=1/16)需要手动调整;论文未详细公开所有训练细节和模型参数,限制了可复现性。 🏗️ 模型架构 H-DFM的模型架构基于F5-TTS的扩散Transformer(DiT)主干网络进行修改。 ...

2026-04-29

It Is Personal: The Importance of Personalization for Recognizing Self-Reported Emotion

📄 It Is Personal: The Importance of Personalization for Recognizing Self-Reported Emotion #语音情感识别 #迁移学习 #多任务学习 #零样本 🔥 8.0/10 | 前25% | #语音情感识别 | #迁移学习 | #多任务学习 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:James Tavernor (University of Michigan) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:James Tavernor (University of Michigan), Emily Mower Provost (University of Michigan) 💡 毒舌点评 本文系统性地论证了在语音情感识别任务中,“个性化”对于预测主观性更强的“自报告情感”至关重要,实验设计严谨,消融完整,为解决情感感知的主观性问题提供了一个清晰的技术路线。然而,其核心模型架构(WavLM+BERT+线性层)并无新意,创新主要体现在方法论的组合与验证上;且为每个用户寻找“最相似注释者”再微调的范式,在面对大规模新用户时可能存在计算与适配成本问题。 📌 核心摘要 要解决什么问题:如何利用在第三方标注数据上训练的语音情感识别(SER)模型,来准确预测说话人自身的“自报告情感”。这面临感知不匹配(第三方与自报告标签差异)和领域不匹配(不同数据集差异)两大挑战。 方法核心是什么:提出一种个���化框架:首先在大规模第三方标注数据集(MSP-Podcast)上预训练一个“多任务个体注释者(IA)”模型(为每个第三方注释者分配一个预测头)。对于目标自报告数据集(IEMOCAP, MuSE),为每个自报告者从1998个预训练预测头中选择一个“最相似”的(IA-Similar),作为个性化起点。然后,使用该自报告者自己的少量标签对选中的预测头进行微调(FT-IA-Similar)。 与已有方法相比新在哪里:新在系统性地将“大规模第三方个体注释者建模”与“小规模自报告数据个性化微调”相结合,用于解决自报告情感识别问题。它明确区分并同时处理了感知不匹配(通过相似性选择)和领域不匹配(通过微调)。 主要实验结果如何: 基线(零样本)性能较差,尤其在MuSE数据集上,激活维度的CCC(一致性相关系数)接近0。 仅进行领域适应(微调共识模型)对性能提升有限,有时甚至损害效度(如IEMOCAP效度)。 核心的“相似注释者选择”(IA-Similar)能显著提升性能,尤其在激活维度。 结合“相似选择”与“自报告数据微调”(FT-IA-Similar)取得最佳效果。在MuSE数据集上,激活维度的CCCflat从基线的-0.01提升至0.62,提升了高达0.63。 效果在“激活”维度上比“效度”维度更强。 关键结果表格: 模型/方法 维度 IEMOCAP CCCflat MuSE CCCflat MuSE Monologue CCCflat Consensus (RQ1, 基线) Act 0.58 -0.01 0.01 Val 0.53 0.15 0.17 FT-Consensus (RQ2) Act 0.60 -0.00 0.01 Val 0.44 0.22 0.25 IA-Similar (RQ3) Act 0.64 0.47 0.48 Val 0.48 0.31 0.39 FT-IA-Similar (RQ4) Act 0.64 0.62 0.64 Val 0.42 0.38 0.43 5. 实际意义是什么:表明要准确识别个人的真实情绪状态,必须考虑个体感知的独特性。该框架为利用丰富的第三方标注数据来构建针对个体的、更精准的情绪识别模型提供了可行路径,对心理健康监测、人机交互等应用有直接价值。 6. 主要局限性是什么:1)预训练和适配过程计算成本较高,尤其是为每个用户维护和选择预测头。2)对于效度维度,个性化有时会带来负面效果,表明其与激活维度的特性不同,需要进一步研究。3)实验基于特定的几个数据集,结论的普适性有待验证。 🏗️ 模型架构 整体流程:输入音频文本 -> 特征提取 -> 多模态融合 -> 个性化预测 -> 微调。 主要组件与数据流: 特征提取:使用预训练的冻结的WavLM提取音频嵌入,使用冻结的BERT提取文本(转录)的CLS嵌入。 特征融合与映射:将音频和文本嵌入进行dropout后拼接,通过一个256维的线性层+ReLU激活,得到一个多模态嵌入。 维度专用分支:多模态嵌入分别通过两个独立的、256维的线性层+ReLU激活,生成“激活”和“效度”的专属嵌入。 预测层: 共识模型:每个维度专属嵌入接一个线性层,输出单个预测值。 IA模型:每个维度专属嵌入接N个线性层(N为注释者数量,预训练时为1998),每个线性层对应一个注释者的预测头。对于给定样本,其预测是该样本所有相关注释者对应预测头输出的平均值。 关键设计选择:架构采用双塔(音频+文本)融合,但并非本文创新。核心创新在于预测层的设计:IA模型通过为每个第三方注释者学习一个独立的线性预测头,将传统的“预测共识标签”任务转化为“预测每个注释者标签”的多任务学习问题,从而建模了感知的多样性。这为后续为自报告者寻找相似预测头奠定了基础。 💡 核心创新点 将个体注释者建模应用于自报告情感识别:之前工作主要在第三方标注任务上建模个体注释者。本文首次将其应用于预测更难、数据更稀缺的自报告情感,验证了其有效性。 提出“相似性选择+微调”的轻量级个性化范式:针对自报告数据稀少的特点,提出了两步走策略:首先通过少量目标数据(训练折)从大规模预训练模型中选择一个最相似的注释者预测头(IA-Similar),这是一个轻量级的“适配”步骤;然后进行少量微调。这种方法比从头训练或直接微调整个大模型更高效、更稳定。 系统性对比与消融设计:论文设计了清晰的四个研究问题(RQ1-RQ4),分别对应零样本、领域适应、感知适应、两者结合,并通过严谨的实验和统计检验,量化了每种策略的贡献和组合后的增益,提供了令人信服的证据链。 🔬 细节详述 训练数据: 预训练:MSP-Podcast数据集(发布版1.11),训练集含84,030条语音,1,998个独立第三方注释者。 测试/适配:IEMOCAP(10,039条语音,6位说话人提供自报告标签,平均每人约402条)和MuSE(2,648条语音,28位说话人,每人5-10段独白,约94条语音,平均每人约9.75次自报告)。 损失函数: 共识模型:损失函数为 L = 2 - CCC_act - CCC_val,其中CCC是Lin’s一致性相关系数。 IA模型:损失函数为 L = 2 - CCCflat_act - CCCflat_val。CCCflat是在整个数据集的所有个体标签和预测上计算的CCC,而非对每个注释者单独计算后平均。 训练策略: 预训练使用5个随机种子,采用早停策略(基于验证集损失,耐心10个epoch),选择验证损失最低的模型。 领域微调(RQ2, RQ4) 和 自报告数据微调(RQ4) 均只进行 1个epoch,这可能是为了缓解目标数据稀少带来的过拟合风险。 在选择相似预测头时,使用训练折的数据计算每个预训练头与目标自报告者标签的CCC,选择CCC最高的头。如果自报告者只有1条标签,则选择预测值与真实值距离最小的头。 关键超参数:模型隐藏层维度为256,融合前使用dropout p=0.2。论文未明确说明学习率、优化器、batch size等。 训练硬件:论文中未提及。 评估指标: CCCflat:在整个测试集(所有说话人/所有自报告者)上计算所有标签和预测的CCC,评估整体性能。 CCCind (仅用于IEMOCAP):为每位自报告者单独计算CCC,然后取平均。评估个性化效果。 RMSEind (用于MuSE):为每位自报告者单独计算均方根误差,然后取平均。因为MuSE每位自报告者标签太少,无法可靠计算CCC。 数据处理:标签通过min-max缩放至[-1, 1]范围。交叉验证设计确保说话人独立且单次记录独立(如MuSE的整个独白、IEMOCAP的特定对话场景在同一折),防止数据泄露。 📊 实验结果 主要基线与对比如下表所示(数据来源于论文Table 1 & 2): ...

2026-04-29

Language-Infused Retrieval-Augmented CTC with Adaptive Soft-Hard Gating for Robust Code-Switching ASR

📄 Language-Infused Retrieval-Augmented CTC with Adaptive Soft-Hard Gating for Robust Code-Switching ASR #语音识别 #检索增强 #端到端 #零样本 #多语言 🔥 8.0/10 | 前25% | #语音识别 | #检索增强 | #端到端 #零样本 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:Zhichao Liang(香港中文大学(深圳)数据科学学院) 通讯作者:Satoshi Nakamura*(香港中文大学(深圳)数据科学学院与人工智能学院) 作者列表:Zhichao Liang(香港中文大学(深圳)数据科学学院)、Satoshi Nakamura(香港中文大学(深圳)数据科学学院与人工智能学院) 💡 毒舌点评 该工作巧妙地将语言后验信息“注入”kNN检索的查询空间,使检索过程本身具有语言意识,这是一个非常直观且有效的改进点。然而,实验仅局限于中英代码切换场景,且与更强或更新的基线(如基于大模型的零样本方法)对比不足,削弱了结论的普适性和说服力。 📌 核心摘要 解决的问题:针对代码切换自动语音识别中语言边界模糊和跨语言声学干扰的挑战,特别是现有门控检索增强CTC模型(如双单语数据存储)存在的边界决策不稳定和语言意识不足的问题。 方法核心:提出LIRA-CTC框架,通过将帧级语言后验概率与编码器特征拼接,形成“语言信息注入”的检索查询,使检索空间与语言身份对齐;并设计自适应软硬门控策略,在数据存储距离差大时硬选择,在距离差小时软插值。 与已有方法的创新:不同于先前仅使用编码器特征进行检索或在解码器端使用语言信息的方法,该工作将语言后验直接融入检索的“键/查询”构造中,并引入了平滑过渡的软硬混合门控机制。 主要实验结果:在ASCEND中文-英文数据集上的实验表明,LIRA-CTC相较于基线Conformer、kNN-CTC和门控kNN-CTC,在官方测试集(TEST)和混合训练集(SMIX)上均取得了更低的混合错误率(MER)。关键数据见下表: 方法 TEST MER (%) SMIX MER (%) RTF CTC 26.10 28.77 0.0139 kNN-CTC 25.49 27.24 0.0145 Gated kNN-CTC 24.97 26.33 0.0152 LIRA-CTC 23.60 24.98 0.0155 实际意义:为零样本代码切换ASR提供了一种有效且计算开销增加有限的新框架,通过增强检索过程的语言感知能力和决策稳定性,提升了模型对混合语言语音的识别鲁棒性。 主要局限性:实验仅验证于中英代码切换场景,其有效性是否能扩展至其他语言对或更复杂的多语言场景有待证明;与当前前沿的零样本ASR方法(如基于大型预训练模型的方法)对比不足。 🏗️ 模型架构 整体架构基于预训练的CTC ASR模型(Conformer编码器+Transformer解码器),核心扩展在于检索增强解码部分。 ...

2026-04-29

Leveraging Audio-Visual Data to Reduce the Multilingual Gap in Self-Supervised Speech Models

📄 Leveraging Audio-Visual Data to Reduce the Multilingual Gap in Self-Supervised Speech Models #语音识别 #自监督学习 #多模态模型 #多语言 #零样本 ✅ 6.0/10 | 前50% | #语音识别 | #自监督学习 | #多模态模型 #多语言 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Mar´ıa Andrea Cruz Bland´on(坦佩雷大学 Tampere University,实习期间完成) 通讯作者:未说明(论文中未明确标注通讯作者,但Zakaria Aldeneh作为Apple方负责人,通常可视为代表) 作者列表: Mar´ıa Andrea Cruz Bland´on (坦佩雷大学) Zakaria Aldeneh (Apple) Jie Chi (Apple) Maureen de Seyssel (Apple) 💡 毒舌点评 本文巧妙地借鉴认知科学观察,为解决一个棘手的工程问题(多语言SSL性能下降)提出了一个优雅的多模态思路,并通过严谨的实验设计令人信服地展示了其效果。但研究仅在英语-法语这一对相对“友好”的语言上进行验证,且视觉数据完全来自机器翻译和TTS合成,这使得其结论在更复杂的真实世界多语言场景(如语言对差异大、口语化、噪声环境)中的普适性存疑,仿佛是在无菌实验室里验证了某种特效药,但尚未在临床试验中证明其广谱疗效。 📌 核心摘要 问题:自监督语音模型(如HuBERT)在单语设置下效果优异,但在多语言设置下存在“多语言差距”,即在各语言上的表现通常低于对应的单语模型。传统解决方法(使用超大规模多语数据)计算成本高昂。 方法:提出在双语语音SSL模型中引入有限的视觉grounding作为辅助信号。核心思想是,视觉信息(图像)可以作为一种“语际桥梁”,帮助模型更好地分离和区分不同语言的语音模式,从而减少跨语言干扰。 创新点: 启发来自认知科学(双语婴儿更关注视觉线索)。 将视觉grounding作为数据高效的解决方案,用于缓解多语言干扰,而非用于多模态任务本身。 设计了严谨的对照实验(SSLA vs. VGS+),隔离视觉信息的纯粹贡献。 主要实验结果: 在零样本音素判别(ABX)任务上,视觉grounding(VGS+)模型相比纯音频模型(SSLA),将双语与单语模型之间的性能差距(多语言差距)从相对31.6%大幅降低至相对7.95%,实现了74.7%的相对缩减。 视觉grounding带来的性能增益,对双语模型(平均相对提升26.68%)显著大于对单语模型(平均相对提升10.71%),验证了其差异性收益。 引入第二阶段数据(ML-COCO)时,纯音频模型性能下降,而视觉grounding模型性能提升,表明其对域偏移更鲁棒。 语言判别实验也显示,视觉grounding增强了双语模型的语言区分能力(错误率从36.66%降至33.69%)。 实际意义:为构建数据高效、鲁棒的多语言语音表示模型提供了新途径,表明多模态信号可以作为一种正则化或辅助信号来改善纯粹语音建模中的问题。 主要局限性:研究仅限于英语和法语双语场景;视觉数据来自合成语音和图像描述,非自然视听;训练仅在两个阶段引入视觉信息,未探索更早或动态引入的效果;双目标优化权重固定;未评估在下游任务(如ASR、语音翻译)上的效果。 🏗️ 模型架构 本研究的核心架构基于FaST-VGS+,并在音频编码器部分进行了调整。整体为一个多任务学习框架,包含音频编码和视觉对齐两个分支。 ...

2026-04-29