Exploring Fine-Tuning Of Large Audio Language Models For Spoken Language Understanding Under Limited Speech Data

📄 Exploring Fine-Tuning Of Large Audio Language Models For Spoken Language Understanding Under Limited Speech Data #语音理解 #迁移学习 #低资源 #多语言 🔥 8.0/10 | 前25% | #语音理解 | #迁移学习 | #低资源 #多语言 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Youngwon Choi (MAUM AI Inc., Republic of Korea) 通讯作者:Huu-Kim Nguyen (∗ 作者列表中标注星号,现单位为 Atmanity Inc., USA) 作者列表: Youngwon Choi (MAUM AI Inc., Republic of Korea) Jaeyoon Jung (MAUM AI Inc., Republic of Korea & Soongsil University, Republic of Korea) Hyeonyu Kim (MAUM AI Inc., Republic of Korea) Huu-Kim Nguyen (MAUM AI Inc., Republic of Korea → 现 Atmanity Inc., USA) Hwayeon Kim (MAUM AI Inc., Republic of Korea) 💡 毒舌点评 这篇论文像一份非常扎实的“工程实验报告”,系统地厘清了“当语音标注数据很少时,怎么微调音频大模型最划算”这个现实问题,结论(转录文本先行、加少量语音、课程学习)对实践者极具指导性。短板在于,它本质上是方法组合与验证,而非底层算法的原创突破,且所有实验仅基于Qwen2-Audio-7B一个模型,结论的普适性存疑。 ...

2026-04-29

Exploring How Audio Effects Alter Emotion with Foundation Models

📄 Exploring How Audio Effects Alter Emotion with Foundation Models #音乐理解 #情感计算 #音频大模型 #模型评估 #预训练 ✅ 7.0/10 | 前50% | #音乐理解 | #预训练 | #情感计算 #音频大模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Stelios Katsis(stelioskatsis12@gmail.com) 通讯作者:未说明(论文提供了多位作者的邮箱,但未明确指定通讯作者) 作者列表:Stelios Katsis(雅典国立技术大学),Vassilis Lyberatos(雅典国立技术大学),Spyridon Kantarelis(雅典国立技术大学),Edmund Dervakos(雅典国立技术大学),Giorgos Stamou(雅典国立技术大学) 💡 毒舌点评 亮点在于研究设计的系统性和全面性,将音频效果的影响拆解为性能、预测、嵌入和真实场景四个层面进行剖析,堪称“模型听觉效应”领域的标准化审计流程。短板则是“浅层分类器探针”方法略显保守,更像是用一个简单模型去“问”复杂模型“你看到了什么”,难以挖掘基础模型内部更深层、更复杂的非线性表征变化。 🔗 开源详情 代码:提供代码仓库链接:https://github.com/stelioskt/audioFX。论文明确声明代码、分析细节和完整实验结果均已公开。 模型权重:未提及公开任何经过微调的模型权重或探针模型权重。 数据集:论文使用的数据集(EMOPIA, DEAM, witheFlow)均为已公开的学术数据集。 Demo:未提及提供在线演示。 复现材料:论文中提及GitHub仓库包含“完整实验结果”,但未详细说明是否包含训练脚本、环境配置文件(如requirements.txt)、预训练模型下载指南或详细的复现步骤文档。 论文中引用的开源项目:主要引用了pedalboard库(用于应用音频效果),以及三个基础模型(MERT, CLAP, Qwen2-Audio)对应的官方开源实现。 📌 核心摘要 问题:音乐制作中常用的音频效果(如混响、失真、调制)会如何系统性地影响人类(或AI)对音乐情感的感知?这一系统性联系尚存研究空白。 方法核心:采用三个音频/音乐基础模型(MERT, CLAP, Qwen2-Audio)作为特征提取器,冻结其参数,后接可解释的浅层分类器(XGBoost)进行情感预测。通过施加不同程度的音频效果,探测模型性能、预测结果和嵌入空间的变化。 新意:首次大规模、系统性地利用多种基础模型,结合控制实验(六种效果、多强度)与真实场景(艺术家效果链),探究音频效果对模型情感感知的“黑箱”影响,填补了从信号处理到情感计算链路中的关键一环。 主要实验结果:如表1所示,随着效果强度增加,模型性能普遍下降。失真(Distortion)和相位器(Phaser)影响最大,例如在witheFlow数据集上,CLAP模型的F1分数因高强度失真下降了0.488。如图1所示,高失真会一致增加“愤怒”预测、减少“平静”预测。嵌入空间分析(图2)显示,CLAP和Qwen的嵌入随效果变化产生大位移,而MERT相对稳定。真实场景效果链(图3)引发更大、更连贯的嵌入偏移。 实际意义:为音乐制作人、情感计算研究者提供了关于不同音频效果“情感倾向”的实证参考,并揭示了不同基础模型在音频鲁棒性和情感表征上的差异。 主要局限性:研究仅针对三个特定基础模型,结论的普适性有待验证;嵌入空间分析主要依赖UMAP可视化,缺乏更定量的度量;所训练的浅层探针可能无法完全捕捉基础模型的全部复杂性。 🏗️ 模型架构 本论文并非提出一个新的端到端架构,而是构建了一个探测性研究框架。其整体流程如下: ...

2026-04-29

Exploring Resolution-Wise Shared Attention in Hybrid Mamba-U-Nets for Improved Cross-Corpus Speech Enhancement

📄 Exploring Resolution-Wise Shared Attention in Hybrid Mamba-U-Nets for Improved Cross-Corpus Speech Enhancement #语音增强 #混合模型 #Mamba #跨语料库 🔥 8.0/10 | 前25% | #语音增强 | #混合模型 | #Mamba #跨语料库 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.7 | 置信度 高 👥 作者与机构 第一作者:Nikolai Lund Kühne(奥尔堡大学电子系) 通讯作者:未明确说明(推测为Jan Østergaard,同一单位) 作者列表:Nikolai Lund Kühne(奥尔堡大学电子系)、Jesper Jensen(奥尔堡大学电子系;Oticon A/S)、Jan Østergaard(奥尔堡大学电子系)、Zheng-Hua Tan(奥尔堡大学电子系) 💡 毒舌点评 亮点:提出的RWSA机制构思巧妙,通过在U-Net的不同分辨率层间共享注意力参数,不仅减少了计算开销,还显著提升了模型在未见数据集(跨语料库)上的泛化能力,这是当前语音增强领域的一个关键痛点。短板:模型架构相对复杂,涉及Mamba、注意力机制、U-Net以及多种损失函数,虽然提供了代码,但其核心贡献“分辨率共享注意力”更像是一种工程优化,而非根本性的理论突破;此外,论文虽然声称SOTA,但与部分基线模型的参数量和计算量差距并不总是特别巨大,说服力可进一步增强。 🔗 开源详情 代码:提供了公开的代码仓库链接:https://github.com/NikolaiKyhne/RWSAMamba-UNet。 模型权重:论文未明确说明是否公开预训练模型权重,但提到了“Code is publicly available”,通常代码仓库可能包含模型或权重。 数据集:所使用的数据集(VB-DemandEx, DNS 2020, EARS-WHAM v2)均为公开数据集,并在论文中引用了来源。 Demo:论文中未提及在线演示。 复现材料:论文提供了非常详细的超参数设置(表3)、训练步数、批大小、硬件环境、评估指标定义等,并引用了其前序工作[MambAttention]的训练配置,复现指导性较强。 论文中引用的开源项目:引用了前序模型MambAttention [18]、MP-SENet [8]、SEMamba [12]、Mamba-SEUNet [13]的代码,并声明所有基线均使用其原始代码训练。 📌 核心摘要 要解决什么问题:现有语音增强模型在训练集以外的语料(跨语料库)上性能下降显著,尤其是基于序列模型(如LSTM, Mamba)的方法。本文旨在提升模型的跨语料库泛化能力。 方法核心是什么:提出了RWSA-MambaUNet模型。其核心是分辨率共享注意力(RWSA) 机制,即在U-Net结构的下采样和上采样路径中,将对应时间/频率分辨率的MambAttention块内的多头注意力(MHA)模块参数共享。模型结合了Mamba在时频维度建模的线性复杂度优势与注意力机制的全局关系捕捉能力。 与已有方法相比新在哪里:首次将RWSA引入基于Mamba的U-Net架构用于语音增强。通过层间共享注意力参数,模型能在不同分辨率上对齐全局时频依赖关系,这被认为对跨语料库泛化至关重要。与先前MambAttention模型相比,本文模型更轻量且泛化能力更强。 主要实验结果如何:在两个域外测试集上达到SOTA。例如,在VB-DemandEx训练的模型中,最小的RWSA-MambaUNet-XS(1.02M参数)在DNS 2020测试集上PESQ达2.940, SSNR达9.421, ESTOI达0.922;在EARS-WHAM v2测试集上SSNR达3.106, ESTOI达0.729, SI-SDR达8.541,超越了所有基线模型(如MambAttention、MP-SENet),同时参数量和FLOPs大幅减少。消融实验证实了RWSA和MHA模块对性能的贡献。 实际意义是什么:该工作为构建高效、强泛化能力的语音增强系统提供了新思路,特别是在处理训练数据未覆盖的新说话人、新噪声场景时具有潜在应用价值(如助听器、移动通信)。 主要局限性是什么:论文未提及模型在含混响数据或真实复杂环境下的性能;SI-SDR指标在部分测试集上不如基线,作者归因于参考信号特性,但这可能影响其在需要波形精确匹配场景下的适用性;此外,实验设置(如STFT参数)与某些近期工作有差异,可能影响公平比较。 🏗️ 模型架构 图1:RWSA-MambaUNet整体架构示意图。展示了从带噪语音输入到增强语音输出的完整流程。 ...

2026-04-29

Exploring SSL Discrete Tokens for Multilingual Automatic Speech Recognition

📄 Exploring SSL Discrete Tokens for Multilingual Automatic Speech Recognition #语音识别 #自监督学习 #多语言 #端到端 ✅ 7.5/10 | 前25% | #语音识别 | #自监督学习 | #多语言 #端到端 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Mingyu Cui(香港中文大学;腾讯实习生) 通讯作者:未明确标注(根据常见习惯,推测为Xunying Liu或论文中列出的通讯作者标识,但本文未明确标注“Corresponding Author”) 作者列表:Mingyu Cui(香港中文大学,腾讯实习生)、Mengzhe Geng(加拿大国家研究委员会)、Yiwen Shao(腾讯)、Jiawen Kang(香港中文大学)、Lingwei Meng(香港中文大学)、Dingdong Wang(香港中文大学)、Chenxing Li(腾讯)、Meng Yu(腾讯)、Xunying Liu(香港中文大学) 💡 毒舌点评 亮点在于,论文用令人信服的实验证明了离散token在训练效率上的碾压优势(加速6.67倍且损失有限性能),并将研究从英语拓展到了7种非英语语言,填补了领域空白。但短板在于,其核心“创新”——用离散token做ASR——在语音社区已非新鲜事,且与最新基线(如Whisper)的对比略显保守,多语言潜力部分的消融实验(表2)也未能给出更优的配置方案,使得贡献停留在“有效验证”而非“范式突破”。 🔗 开源详情 代码:论文中未提及代码仓库链接。 模型权重:未提及公开权重。 数据集:使用Multilingual Librispeech语料库,为公开数据集(论文引用[35]),但论文未说明其处理版本或获取方式。 Demo:未提供在线演示。 复现材料:论文给出了主要模型架构(Zipformer)、关键超参数(如K-means单元数、BPE词表大小、学习率公式)和部分训练设置。但缺少完整的训练脚本、配置文件、数据预处理流程和检查点,复现仍不充分。 论文中引用的开源项目:论文中引用的开源项目包括:XLSR-53模型[33](来自Hugging Face)、WavLM-Large模型[5](来自Hugging Face)、EnCodec模型[16](来自Hugging Face)、Zipformer-Transducer代码[34](来自icefall库)。 📌 核心摘要 要解决什么问题:现有研究将自监督学习(SSL)离散token应用于自动语音识别(ASR)时,主要局限于英语任务,且忽略了跨语句上下文信息的建模。本文旨在系统性地探索离散token在多语言ASR中的有效性,并利用其建模跨语句语音上下文。 ...

2026-04-29

Expressive Voice Conversion with Controllable Emotional Intensity

📄 Expressive Voice Conversion with Controllable Emotional Intensity #语音转换 #数据增强 #注意力机制 #语音情感识别 #自监督学习 ✅ 7.5/10 | 前25% | #语音转换 | #数据增强 | #注意力机制 #语音情感识别 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nannan Teng(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院) 通讯作者:Ying Hu(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院) 作者列表:Nannan Teng(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院)、Ying Hu(丝绸之路多语种认知计算联合国际研究实验室,新疆大学计算机科学与技术学院)、Zhijian Ou(清华大学电机工程与应用电子技术系)、Sheng Li(东京科学大学工程学院) 💡 毒舌点评 这篇论文最亮眼的地方在于它清晰的“问题-方案”对应逻辑:用“特定属性增强”制造更鲁棒的特征,用“联合注意力”优雅地融合并控制说话人与情感风格,最后用“扰动归一化”来提升合成的表现力,模块设计环环相扣且动机明确。短板则在于情感控制的粒度仍显粗糙,一个标量α控制所有情绪类别的强度,缺乏对不同情绪(如“喜悦”与“愤怒”)可能具有不同强度响应曲线的建模,这在一定程度上限制了其实用性和精细度。 🔗 开源详情 代码:提供了代码仓库链接:https://tengnn.github.io/ExpressiveVC/。 模型权重:论文中未提及是否公开预训练模型权重。 数据集:使用ESD英文数据集和RAVDESS数据集进行测试,这两个均为公开数据集,但论文未提供具体的获取或预处理脚本。 Demo:提供了在线演示链接:https://tengnn.github.io/ExpressiveVC/。 复现材料:论文提供了方法的基本描述和公式,但缺乏具体的训练细节(如优化器、学习率、批大小、训练时长)和模型配置信息。 引用的开源项目:论文未明确列出所有依赖项,但可以推断其使用了Wav2vec 2.0(用于特征提取)、以及可能的HiFi-GAN(作为声码器)等开源模型。 📌 核心摘要 解决的问题:现有的表现力语音转换(VC)方法要么专注于说话人身份和情感风格的迁移,要么专注于情感强度的可控调节,未能很好地将两者结合。本文旨在提出一个能同时实现高质量说话人转换、情感迁移,并允许用户精细控制目标情感强度的VC模型。 方法核心:提出了CEI-VC模型,包含三个关键组件:a) 特定属性增强(SAA):通过共振峰偏移和音高单调化等数据扰动策略,增强模型对说话人和情感特征的鲁棒性。b) 情感解耦与强度控制(EDIC)模块:利用解耦损失和基于联合注意力的风格融合机制,将说话人与情感特征分离,并引入可调参数α在推理时控制情感强度。c) 扰动自适应实例归一化(PbAdaIN):在归一化层中对风格特征施加扰动,提升合成语音的自然度和表现力。 与已有方法相比新在哪里:主要新意在于系统性地结合了数据增强、特征解耦与可控生成三个环节。具体创新包括:1)提出了针对性的SAA策略来同时扰动说话人和情感属性;2)设计了UDIA模块,通过联合注意力机制和可调参数实现情感强度的连续控制;3)提出了PbAdaIN,通过在特征归一化时引入可控噪声来增强表达力。 主要实验结果:在ESD英语数据集上的实验表明,CEI-VC在多项指标上优于5个对比模型。在Unseen-to-Unseen场景下,其自然度MOS(nMOS)为4.02,情感相似度MOS(eMOS)为3.30,情感嵌入余弦相似度(EECS)为0.6663,均为最佳或次佳。消融实验证明SAA、PbAdaIN和UDIA模块均对性能有显著贡献。通过调节参数α(0.2, 0.5, 0.9),转换语音的平均音高和情感分类准确率随强度增加而变化,验证了情感强度控制的有效性。 实际意义:该模型可应用于需要情感表现力和身份控制的语音合成场景,如个性化有声读物生成、影视配音、以及更自然的人机交互对话系统。 主要局限性:论文未讨论模型在极短语音或噪声环境下的鲁棒性;情感强度控制机制(标量α)可能对所有情绪类型过于简化;未公开模型权重和详细训练配置,限制了完全复现。 🏗️ 模型架构 本文提出的CEI-VC模型整体架构如图1所示。其核心是基于变分自编码器(VAE)和归一化流(Normalizing Flow)的框架,旨在学习并转换语音的说话人、情感和内容特征。 ...

2026-04-29

Exterior Sound Field Estimation Based on Physics-Constrained Kernel

📄 Exterior Sound Field Estimation Based on Physics-Constrained Kernel #空间音频 #声源定位 #物理约束核 #高斯过程回归 #信号处理 ✅ 6.5/10 | 前25% | #空间音频 | #高斯过程回归 | #声源定位 #物理约束核 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Juliano G. C. Ribeiro(雅马哈公司,滨松) 通讯作者:未说明 作者列表:Juliano G. C. Ribeiro(雅马哈公司,滨松)、Ryo Matsuda(雅马哈公司,滨松)、Jorge Trevino(雅马哈公司,滨松) 💡 毒舌点评 本文的核心亮点在于将高斯过程回归与严格的物理约束(外部亥姆霍兹方程解)结合,并通过引入可训练的加权内积实现了对高阶模式衰减的自动学习,理论上比传统球谐展开方法更灵活且对麦克风分布鲁棒。然而,论文的“软肋”也非常明显:所有结论完全建立在精心设计的数值模拟上,未进行任何真实环境或硬件测试,这使得其宣称的“在实际应用中更优”缺乏直接证据;此外,论文在开源和复现细节上完全留白,对于一篇依赖复杂优化的工作,这无疑大幅削弱了其科学价值。 📌 核心摘要 要解决什么问题:论文研究外部声场(源区域外的声场)插值问题。传统方法(如球谐函数展开)通常需要特定的麦克风阵列构型,且对正则化参数和麦克风分布敏感。 方法核心是什么:提出一种基于物理约束核的高斯过程回归(GPR)方法。该方法使用满足外部亥姆霍兹方程的解(球汉克尔函数与球谐函数的乘积)构建再生核希尔伯特空间(RKHS),并通过引入一个参数化的径向衰减函数,使高阶模式能根据数据自动衰减,从而避免发散问题。 与已有方法相比新在哪里:不同于直接截断的球谐展开(SWF)或端到端学习的物理信息神经网络(PNN),该方法将物理知识以“核”的形式嵌入高斯过程框架。其创新在于定义了一个可收敛的加权内积(式(13)),并由此导出带权重的核函数(式(17)),使得模型参数(α, β)可通过最大化似然函数自动优化,无需手动调整截断阶数或正则化项。 主要实验结果如何:在包含27个点源的模拟环境中,对比了SWF和PNN方法。在100 Hz至2.5 kHz频段内,所提方法在两种麦克风分布(球形t-design阵列和随机阵列)下的归一化均方误差(NMSE)平均比最优基线(PNN)低1.94 dB,比理想的SWF(使用测试数据选择正则化参数)低2.06 dB。在1 kHz处的点估计中,所提方法显示出更低且分布更均匀的归一化平方误差(NSE)(见图5)。 实际意义是什么:该方法为声场再现、主动噪声控制等应用提供了一种更鲁棒的声场插值工具,理论上允许麦克风任意分布,降低了系统对硬件阵列的依赖。 主要局限性是什么:所有实验均为数值模拟,缺乏真实声学环境、混响、非理想声源等复杂条件的验证;论文未提供代码和详细复现指南;所提优化问题(式(20))没有闭式解,其求解稳定性和计算复杂度未深入讨论。 🏗️ 模型架构 本文提出的方法并非一个传统的多层神经网络,而是一个基于核方法的高斯过程回归模型。其整体架构和流程如下: 输入:目标区域ΩT内M个麦克风位置{rm}M=1处的复声压测量值 s,以及这些位置的坐标。频率域独立处理。 核心组件——物理约束核函数: 基础:使用外部亥姆霍兹方程的解 ψν,μ(r) = hν(k∥r∥)Yμν(r/∥r∥) 作为基函数。其中hν是球汉克尔函数,Yμν是球谐函数。 创新——加权内积与RKHS定义:为解决hν在源点(r=0)的奇异性(阶数ν的极点),定义了一个径向衰减加权内积(式(9)),其权重函数为 w(r) = k exp(-(α/(k∥r∥))^{1/β})。这个权重确保了所有阶数的ψν,μ在积分下的范数有限(式(14))。 可训练模式衰减:通过权重函数导出每个阶数ν的衰减系数ξν(α, β)(式(15))。α和β是可训练参数,控制高阶模式的衰减速度(如图2所示)。 核函数构建:在上述RKHS中,定义再生核为 κ(r, r’; α, β) = Σν=0^20 Σμ=-ν^ν ξν(α, β) ψν,μ(r) ψν,μ(r’)(式(17))。截断阶数νKRR=20,固定。 估计器:声场估计器为这些核函数的线性组合:ûKRR(r) = Σm=1^M am κα,β(r, rm)(式(18))。 参数优化:系数向量 a 通过核岭回归(KRR)求解(式(19))。核参数α, β和正则化系数λKRR通过最大化高斯过程的对数边缘似然函数(式(20))来联合优化,其中加入了对Gram矩阵条件数的约束以保证数值稳定性。 输出:对于目标区域内任意点r,输出其估计的复声压ûKRR(r)。 图1:问题陈述示意图 图1展示了问题设置:目标区域ΩT(外部球壳)包含声源区域ΩS(内部球体)。麦克风分布在ΩT中。 ...

2026-04-29

FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec

📄 FAC-FACodec: Controllable Zero-Shot Foreign Accent Conversion with Factorized Speech Codec #语音转换 #扩散模型 #零样本 #语音编解码器 🔥 8.0/10 | 前25% | #语音转换 | #扩散模型 | #零样本 #语音编解码器 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Yurii Halychanskyi(University of Illinois Urbana-Champaign, The Grainger College of Engineering, Siebel School of Computing and Data Science) 通讯作者:未说明 作者列表:Yurii Halychanskyi(UIUC)、Cameron Churchwell(UIUC)、Yutong Wen(UIUC)、Volodymyr Kindratenko(UIUC) 💡 毒舌点评 亮点在于巧妙地将扩散模型的噪声控制机制转化为口音强度的“旋钮”,首次实现了在口音转换中对“转多少”的显式、平滑控制,这对实际应用非常友好。短板是训练数据“作弊”——只用了美式英语单说话人(LJSpeech),这好比只学会了标准答案却没练习过如何修改各地“方言”作业,其面对真正多样化非母语口音时的泛化能力和适应性存疑,而论文对此缺乏深入验证。 🔗 开源详情 代码:提供代码仓库链接:https://claussss.github.io/accent_control_demo/ 模型权重:论文中未提及是否公开预训练模型权重。 数据集:训练集LJSpeech和评测集L2-Arctic均为公开数据集,论文中给出了使用方式。 Demo:论文提供的网站链接即为Demo页面(同上)。 复现材料:提供了完整的训练细节(优化器、学习率、批大小、epoch数、硬件)、模型架构细节、预处理流程(文本归一化、音素转换、对齐工具),以及关键超参数(网络尺寸、噪声调度、推理步数)。 引用的开源项目:Nvidia NeMo文本归一化、Phonemizer、Wav2Vec2 XLSR(对齐)、FACodec、Whisper(评测)、SpeechBrain/WavLM(说话人相似度评测)。 📌 核心摘要 问题:现有的口音转换方法缺乏对转换强度的显式控制,难以在“更地道”和“更像本人”之间灵活权衡。 方法核心:提出FAC-FACodec框架,利用FACodec将语音解耦,仅对内容(发音)潜变量zc1进行建模。在训练时,模型学习从加噪的zc1中恢复出美式英语的先验分布。在推理时,通过选择初始加噪的时间步t_start来控制转换强度:t_start越大,表示从越“混乱”的状态开始去噪,结果越偏向先验(美式发音),但可能丢失更多原始特征。 创新点:这是首个提供用户可控参数来调节口音转换强度的框架;仅需目标口音(美式英语)的语音和转录文本进行训练,实现零样本转换;专注于发音层面的修改,严格保留说话人的韵律和音色。 主要实验结果:在L2-Arctic数据集(6种非母语口音)上测试,随着t_start从25增至100,美式口音分类器得分(Acc)从72.22平均提升至89.86,而说话人相似度(SS)从0.97降至0.88,词错误率(WER)从0.07升至0.15,证明了转换强度与身份保留之间的可控权衡。与基线系统相比,在 t_start=100时,本方法在说话人相似度和WER上持平或更优,但在口音得分上通常低于同时重构韵律的系统。 关键数据表(节选): ...

2026-04-29

Face-Voice Association with Inductive Bias for Maximum Class Separation

📄 Face-Voice Association with Inductive Bias for Maximum Class Separation #说话人验证 #跨模态 #归纳偏置 #对比学习 #基准测试 ✅ 7.0/10 | 前25% | #说话人验证 | #归纳偏置 | #跨模态 #对比学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文作者列表未按顺序标注第一作者,但根据惯例,Marta Moscati排在首位) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Marta Moscati¹, Oleksandr Kats¹, Mubashir Noman², Muhammad Zaigham Zaheer², Yufang Hou³, Markus Schedl¹’⁴, Shah Nawaz¹ ¹ Johannes Kepler University Linz, Austria ² MBZUAI, UAE ³ IT:U Interdisciplinary Transformation University Austria ⁴ Linz Institute of Technology, Austria 💡 毒舌点评 亮点:论文巧妙地将一个原本用于单模态分类任务的“最大类分离归纳偏置”技术迁移并适配到了多模态的人脸-语音关联领域,且通过扎实的消融实验证明了它与正交约束损失结合后的“1+1>2”效果,思路新颖且有效。 短板:归纳偏置矩阵的构造(公式1)需要预先知道总说话人数量(Ns),这可能导致其在动态或开放世界的说话人识别场景中应用受限,论文未探讨这一关键限制的缓解方案。 ...

2026-04-29

Fake Speech Wild: Detecting Deepfake Speech on Social Media Platform

📄 Fake Speech Wild: Detecting Deepfake Speech on Social Media Platform #语音伪造检测 #自监督学习 #数据增强 #鲁棒性 #基准测试 ✅ 7.0/10 | 前25% | #语音伪造检测 | #自监督学习 | #数据增强 #鲁棒性 学术质量 7.0/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yuankun Xie(Communication University of China, Beijing, China) 通讯作者:Ruibo Fu(Institute of Automation, Chinese Academy of Sciences, Beijing, China),Long Ye(Communication University of China, Beijing, China) 作者列表:Yuankun Xie(中国传媒大学),Ruibo Fu(中国科学院自动化研究所),Xiaopeng Wang(北京理工大学),Zhiyong Wang(中国科学院自动化研究所),Ya Li(北京邮电大学),Yingming Gao(北京邮电大学),Zhengqi Wen(北京国家信息科学与技术研究中心,清华大学),Haonan Cheng(中国传媒大学),Long Ye(中国传媒大学) 💡 毒舌点评 这篇论文最大的亮点是做了一件“脏活累活”——构建了一个贴近真实世界、多平台、多账户的中文深度伪造语音数据集(FSW),并用它系统性地戳穿了现有检测模型在“温室”数据集上虚假的高性能泡沫,为社区提供了更严格的评估标准。短板在于,它本质上是“评估”和“诊断”工作,虽然实用,但并未提出一种具有突破性的新型检测模型架构,更像是为后续工作铺设了一条更真实的跑道。 ...

2026-04-29

Fast-ULCNet: A Fast and Ultra Low Complexity Network for Single-Channel Speech Enhancement

📄 Fast-ULCNet: A Fast and Ultra Low Complexity Network for Single-Channel Speech Enhancement #语音增强 #循环神经网络 #低资源 #实时处理 ✅ 7.5/10 | 前25% | #语音增强 | #循环神经网络 | #低资源 #实时处理 学术质量 7.5/7 | 选题价值 7.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nicolás Arrieta Larraza (Bang & Olufsen, Allé 1 7600 Struer, Denmark) 通讯作者:未说明 作者列表:Nicolás Arrieta Larraza (Bang & Olufsen), Niels de Koeijer (Bang & Olufsen) 💡 毒舌点评 亮点: 论文敏锐地发现了FastGRNN在长序列推理时的“状态漂移”这一实用陷阱,并受传感器互补滤波启发提出了一个优雅、轻量且可训练的修复方案(Comfi-FastGRNN),体现了从工程实践中发现问题并解决问题的能力。短板: 创新主要是将一个已有的轻量RNN架构(FastGRNN)替换到另一个轻量模型(ULCNet)中,本质是模块替换,在短音频(10秒)标准评测集上并未带来性能提升甚至略有损失,其核心贡献更偏向于“工程优化”而非“算法突破”。 🔗 开源详情 代码:提供了GitHub仓库链接:https://github.com/narrietal/Fast-ULCNet。 模型权重:论文中未提及是否公开预训练模型权重。 数据集:使用公开的Interspeech 2020 DNS Challenge数据集,但未提供额外获取途径说明。 Demo:提供了在线演示链接:https://narrietal.github.io/Fast-ULCNet/。 复现材料:提供了详细的架构实现细节(如网络层配置、损失函数)、训练设置(优化器、学习率、批大小等)和超参数,有助于复现。 依赖的开源项目:论文中未明确列出依赖的其他开源工具/模型。 📌 核心摘要 问题:单通道语音增强算法需要在资源受限的嵌入式设备上运行,要求极低的计算复杂度和延迟。 方法核心:本文提出Fast-ULCNet,将现有低复杂度模型ULCNet中的GRU层替换为更轻量的FastGRNN层,以进一步降低计算开销和延迟。 新发现与创新:研究发现FastGRNN在推理长音频信号(>60秒)时性能会因内部状态漂移而下降。为此,提出了Comfi-FastGRNN,通过一个可训练的互补滤波器模块来抑制状态漂移。 主要实验结果:在DNS Challenge 2020数据集上,Fast-ULCNet在10秒测试集上与原始ULCNet性能相当;在90秒长测试集上,未经改进的FastGRNN性能显著下降,而Comfi-FastGRNN版本则恢复了稳定性,与ULCNet持平。模型参数量减少超过一半(从0.685M降至0.338M),在Raspberry Pi 3 B+上的平均实时因子(RTF)降低约34%(从0.976降至0.657)。 实际意义:该工作使得高性能语音增强模型更容易部署到智能耳机、助听器等低功耗实时设备上。 主要局限性:长序列评估仅通过拼接自身构造,可能不完全反映真实世界的持续流式处理场景;在短序列标准基准上,Fast-ULCNet的PESQ和SI-SDR指标略低于原始ULCNet。 🏗️ 模型架构 Fast-ULCNet的架构基于ULCNet,主要分为两个阶段: ...

2026-04-29