Mixture To Beamformed Mixture: Leveraging Beamformed Mixture As Weak-Supervision for Speech Enhancement and Noise-Robust ASR

📄 Mixture To Beamformed Mixture: Leveraging Beamformed Mixture As Weak-Supervision for Speech Enhancement and Noise-Robust ASR #语音增强 #语音识别 #波束成形 #多通道 🔥 8.0/10 | 前25% | #语音增强 | #波束成形 | #语音识别 #多通道 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Zhong-Qiu Wang(南方科技大学计算机科学与工程系) 通讯作者:Zhong-Qiu Wang,Ruizhe Pang(南方科技大学计算机科学与工程系) 作者列表:Zhong-Qiu Wang(南方科技大学计算机科学与工程系),Ruizhe Pang(南方科技大学计算机科学与工程系) 💡 毒舌点评 亮点:论文巧妙地利用“波束成形后的混合信号”这一易于获取、但信噪比更高的信号作为弱监督标签,优雅地绕开了真实数据“无干净标签”的核心痛点,思路非常清晰且具有工程实用性。短板:方法依赖于一个基于模拟数据预训练的模型来推导波束成形器,形成了一个“模型生成监督信号再训练模型”的循环,其理论上的收敛性和在极端失配情况下的鲁棒性缺乏深入探讨;同时,多阶段训练流程(预训练波束成形器、M2BM训练)增加了整体复杂度。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:使用公开的CHiME-4数据集,未提及是否提供额外数据。 Demo:未提及。 复现材料:未提及详细的训练配置(学习率、优化器、训练轮数、GPU型号等)、检查点或附录说明。论文仅提供了模型架构的部分超参数(D,B,I,J等)。 论文中引用的开源项目:引用了多个相关工作,但未明确说明其代码是否开源以及本文是否依赖其代码。 📌 核心摘要 要解决的问题:在多通道语音增强和鲁棒ASR中,使用模拟数据训练的模型在真实场景中泛化能力有限,而真实数据又缺少干净的语音标签进行监督学习。 方法核心:提出“混合信号到波束成形混合信号(M2BM)”的训练范式。利用传统波束成形算法(如MVDR)对真实多通道混合信号进行处理,得到一个目标说话人信噪比更高的“波束成形混合信号”(Y_BF)。将这个信号作为弱监督目标,训练深度神经网络(DNN)从原始混合信号中估计出目标语音和噪声,使两者的组合能逼近原始混合信号和波束成形后的混合信号。 与已有方法相比新在哪里:扩展了之前的M2M(混合到混合)方法。M2M仅利用参考麦克风的混合信号作为约束,而M2BM进一步引入了波束成形后的混合信号作为更强的、指向性更明确的监督信号。通过结合在模拟数据上的监督学习和在真实数据上的M2BM学习,提出了SuperM2BM半监督框架。 主要实验结果:在CHiME-4真实测试集上,6通道输入的SuperM2BM系统取得了1.25%的WER,相比纯监督学习的41.76%和SuperM2M的2.42%有显著提升,并优于此前最优系统MultiIRIS(1.33%)。DNSMOS OVRL分数也达到或超过了波束成形本身的结果(见表1)。 实际意义:该方法允许开发者仅在目标领域采集无标签的多通道真实数据,结合现有的波束成形算法,即可有效提升模型在真实场景下的性能,降低了对高质量标注数据的依赖,具有很强的实用价值。 主要局限性:训练流程相对复杂,需要先预训练一个单通道增强模型来估计空间参数以计算波束成形器;性能的上限在一定程度上受限于所使用的传统波束成形算法的质量;对于单通道输入情况,M2BM的提升幅度相对较小。 🏗️ 模型架构 本文的核心模型架构是一个DNN增强网络(采用TF-GridNet),其训练框架SuperM2BM如图1所示。 ...

2026-04-29

Mixture-of-Experts Based Soft-Label Learning for Multi-Label Speech Emotion Recognition

📄 Mixture-of-Experts Based Soft-Label Learning for Multi-Label Speech Emotion Recognition #语音情感识别 #预训练 #模型评估 ✅ 7.5/10 | 前25% | #语音情感识别 | #预训练 | #模型评估 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yandi Zheng(天津师范大学计算机与信息工程学院) 通讯作者:Ziping Zhao(天津师范大学计算机与信息工程学院) 作者列表:Yandi Zheng(天津师范大学计算机与信息工程学院),Xinzhou Xu(南京邮电大学物联网学院,格拉茨理工大学信号处理与语音通信实验室)†,Ziping Zhao(天津师范大学计算机与信息工程学院),Björn Schuller(慕尼黑工业大学健康信息学系,伦敦帝国理工学院GLAM小组) 💡 毒舌点评 论文针对多标签语音情感识别这一具体痛点,提出了一个结合预训练模型与Mixture-of-Experts (MoE)架构的软标签学习方案,设计思路清晰,消融实验对各组件作用进行了验证。然而,论文的核心创新——将MoE应用于建模情感相关性——相对直接,且在缺乏代码和详细复现说明的情况下,其宣称的“SOTA”性能说服力会打折扣。 🔗 开源详情 代码:论文中未提及代码链接。数据处理脚本链接为 https://github.com/Moscar0601/process_audio。 模型权重:未提及是否公开训练好的模型权重。 数据集:所使用的MSP-IMPROV和IEMOCAP均为公开数据集,但论文未说明获取方式或是否对原始数据进行了额外处理。 Demo:未提供在线演示。 复现材料:提供了部分关键超参数和设置(如随机种子、批大小、优化器、关键维度),但缺少训练总时长、学习率调度、完整的实验代码、检查点等关键复现信息。 论文中引用的开源项目:主要依赖预训练的“wav2vec2-L-robust-12”模型,其来源在论文中已注明。 📌 核心摘要 这篇论文旨在解决多标签语音情感识别(SER)中现有方法(如多数投票法)会丢失情感共现相关性信息的问题。作者提出了一种基于Mixture-of-Experts(MoE)的软标签学习方法,该方法首先使用预训练的wav2vec 2.0和一个注意力池化层提取话语级语音表示,然后通过一个包含多个专家网络的MoE模块,并由一个门控机制动态分配各专家的权重,最终通过sigmoid函数和二元交叉熵(BCE)损失预测每个情感类别的存在概率。与现有使用硬标签或简单软标签的方法相比,本工作的创新在于利用MoE架构自适应地从多种情感类别组合中学习判别性信息。实验在MSP-IMPROV和IEMOCAP两个基准数据集上进行,结果显示,所提方法在宏观F1(maF1)、微观F1(miF1)和加权F1(weF1)指标上均优于现有的AR(全包容规则)和TSC(温度缩放校准)等方法。例如,在MSP-IMPROV数据集上,所提方法的maF1为0.481,优于次优的AR(CBCE)的0.461;在IEMOCAP数据集上,其maF1为0.421,优于次优的TSC(BCE)的0.401。该工作的实际意义在于为情感表达中普遍存在的歧义和主观性提供了更灵活的建模方式。主要局限性包括:未提供代码和模型权重以供复现;实验仅限于两个标准数据集,对方法在更复杂或真实场景下的泛化能力验证不足;模型性能可能对预训练骨干网络和专家数量等超参数较为敏感。 🏗️ 模型架构 论文提出的模型架构(如图1所示)主要包含两个模块:表示提取模块和混合专家(MoE)模块。 表示提取模块:输入为音频信号,首先使用预训练的“wav2vec2-L-robust-12”模型的前12层Transformer(冻结CNN层,可调Transformer层)提取帧级特征序列 X = [x₁, x₂, …, xₜ] ∈ ℝ^{D×T}。随后,一个注意力池化(AP)层将变长的帧级表示聚合为固定长度的话语级表示向量 r ∈ ℝ^{D×1}。其注意力权重计算公式为 αₜ = exp(w^T tanh(Wxₜ)) / Σₜ exp(w^T tanh(Wxₜ)),其中 W 和 w 是可学习参数。聚合后得到 r = Σₜ αₜxₜ。最后,通过一个包含线性层、批归一化、ReLU和dropout的多层感知机(MLP1)将 r 映射为最终表示 m = MLP₁(r) ∈ ℝ^{D×1}。 门控机制:表示 m 被输入到一个门控网络中,通过线性变换和softmax函数生成N维权重向量 β = softmax(W_g^T m + b_g) ∈ ℝ^{N×1},其中 N 是专家数量。该向量 β 决定了每个专家网络的输出在最终预测中的贡献比例。 混合专家(MoE)模块:该模块包含 N 个独立的专家网络,每个专家 i 包含一个由 L 个“线性层-批归一化-ReLU-dropout”块组成的MLP2^(i)(·),以及一个输出K维向量的全连接层(K为情感类别总数)。每个专家 i 处理输入 m 后生成一个情感向量 eᵢ ∈ ℝ^{K×1}。所有专家的输出组成矩阵 E = [e₁, e₂, …, e_N] ∈ ℝ^{K×N}。 最终预测与损失:模型的最终预测为 ŷ = sigmoid(Eβ) ∈ ℝ^{K×1},这是一个K维向量,其每个元素表示对应情感类别存在的概率。训练使用二元交叉熵(BCE)损失函数,将多标签SER视为K个独立的二分类任务。软标签 y 是根据所有标注者的标注计算得出的各类别比例(公式5),并在训练前以阈值1/K二值化为多热向量以减少噪声。 💡 核心创新点 针对多标签SER的软标签学习框架:现有大多数SER工作通过多数规则(MR)或最高票规则(PR)将多标注者结果简化为单一硬标签,丢失了情感共现信息。本方法直接学习从多个标注中得出的软标签分布,更充分地利用了标注数据。 引入Mixture-of-Experts (MoE) 建模情感相关性:之前基于软标签的方法(如AR, TSC)虽处理软标签,但未显式建模不同情感类别间的复杂关系。本方法引入MoE架构,每个专家可以专注于学习特定情感组合的判别性特征,门控机制则根据输入语音自适应地加权组合各专家的判断,从而更好地捕捉情感间的相关性。 将注意力池化与MoE结合用于语音表示:相比简单的均值池化,注意力池化能学习对识别任务更关键的帧级特征进行加权聚合。论文通过消融实验证明,结合注意力池化和MoE能带来比单独使用任一组件或使用均值池化更好的性能。 🔬 细节详述 训练数据: 数据集1:MSP-IMPROV。包含8438个话语,由12名演员录制。每个话语至少有5名标注者,标注了10种情感类别(从5种主要情感和6种次要情感中移除“other”后得到)。采用6折会话无关交叉验证。 数据集2:IEMOCAP。包含10039个话语。每个话语至少有3名标注者,标注了9种情感类别(从10种中移除“other”后得到)。采用5折会话无关交叉验证。 预处理:音频重采样至16kHz。所有话语被分割为7秒的样本(末尾零填充),以统一输入维度(T=349, D=1024)。 数据增强:论文中未提及使用任何数据增强技术。 损失函数:使用标准的二元交叉熵(BCE)损失(公式6),针对每个情感类别独立计算,然后求和。在计算损失前,根据软标签生成的多热向量使用了阈值1/K进行二值化。 训练策略: 优化器:Adam。 学习率:从{1e-5, 5e-5, 1e-4, 5e-4, 1e-3, 5e-3}中选择最佳值。 批大小:32。 训练轮数:论文未明确给出总训练轮数,但提到在交叉验证中记录10个epoch内的最佳maF1作为最终结果。 调度策略:论文中未提及学习率调度策略。 关键超参数: 骨干网络:“wav2vec2-L-robust-12”,仅使用前12层Transformer。 注意力池化隐藏维度(Da):256(默认),消融实验中测试了128, 256, 512。 专家数量(N):在MSP-IMPROV和IEMOCAP数据集上分别设置为10和9(等于各自情感类别总数K)。消融实验测试了K-3和K+3的情况。 专家网络MLP层数(L):2(默认),消融实验测试了1和3的情况。 Dropout率:0.3(用于专家网络MLP)。 随机种子:固定为28。 训练硬件:NVIDIA RTX A6000 GPU。论文中未提及训练时长。 推理细节:推理时,输入语音经过模型直接输出一个K维概率向量 ŷ。论文未提及使用任何特殊的解码策略(如温度、beam search)。 正则化或稳定训练技巧:在专家网络和MLP1中使用了dropout层(率0.3)。使用了批归一化(Batch Normalization)。 📊 实验结果 论文在MSP-IMPROV和IEMOCAP两个数据集上,与多种先进的基线方法进行了对比。主要评估指标为宏观F1(maF1)、微观F1(miF1)和加权F1(weF1)。 ...

2026-04-29

Mixture-of-Experts Framework for Field-of-View Enhanced Signal-Dependent Binauralization of Moving Talkers

📄 Mixture-of-Experts Framework for Field-of-View Enhanced Signal-Dependent Binauralization of Moving Talkers #空间音频 #波束成形 #信号处理 #移动声源跟踪 ✅ 6.5/10 | 前50% | #空间音频 | #波束成形 #信号处理 | #波束成形 #信号处理 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Manan Mittal(Stony Brook University, Meta Reality Labs Research) 通讯作者:未说明 作者列表:Manan Mittal(Stony Brook University, Meta Reality Labs Research)、Thomas Deppisch(Chalmers University of Technology, Meta Reality Labs Research)、Joseph Forrer(Meta Reality Labs Research)、Chris Le Sueur(Meta Reality Labs Research)、Zamir Ben-Hur(Meta Reality Labs Research)、David Lou Alon(Meta Reality Labs Research)、Daniel D.E. Wong(Meta Reality Labs Research) 💡 毒舌点评 这篇论文巧妙地将混合专家模型应用于双耳渲染,实现了无需显式声源定位的动态跟踪与增强,思路颇具启发性。然而,其在真实世界的实验规模较小、对比基线相对传统,且全文未提供任何开源代码或复现细节,大大削弱了其作为方法论贡献的可验证性和可复用性。 ...

2026-04-29

Mixtures of Lightweight Articulatory Experts for Multilingual Asr

📄 Mixtures of Lightweight Articulatory Experts for Multilingual Asr #语音识别 #混合专家模型 #多语言 #低资源 #多任务学习 ✅ 7.0/10 | 前25% | #语音识别 | #混合专家模型 | #多语言 #低资源 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明(论文中Masato Mimura与Jaeyoung Lee并列,但通常作者列表顺序有意义,未明确标注) 通讯作者:未说明 作者列表:Masato Mimura (NTT, Inc., Japan), Jaeyoung Lee (NTT, Inc., Japan), Ryo Magoshi (School of Informatics, Kyoto University, Japan), Tatsuya Kawahara (School of Informatics, Kyoto University, Japan) 💡 毒舌点评 这篇论文巧妙地将MoE架构的“稀疏激活”与语言学中稳定的发音特征结合,用“小专家”解决“大模型”的低效问题,在多种语言上取得了稳定提升,证明了语言学归纳偏置的价值。然而,论文在工程细节上显得“吝啬”,未公开代码与模型,且仅在CommonVoice数据集上验证,缺乏与Whisper等大规模模型的直接对比,使其结论在更广场景下的普适性存疑。 ...

2026-04-29

ML-SAN: Multi-Level Speaker-Adaptive Network for Emotion Recognition in Conversations

📄 ML-SAN: Multi-Level Speaker-Adaptive Network for Emotion Recognition in Conversations #语音情感识别 #多模态模型 #多任务学习 🔥 8.0/10 | 前25% | #语音情感识别 | #多模态模型 | #多任务学习 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Kexue Wang(新疆大学) 通讯作者:Liejun Wang(新疆大学) 作者列表:Kexue Wang(新疆大学,联合具身智能实验室,丝绸之路多语言认知计算联合国际实验室,计算机科学与技术学院), Yinfeng Yu(新疆大学,联合具身智能实验室,丝绸之路多语言认知计算联合国际实验室,计算机科学与技术学院), Liejun Wang(新疆大学,联合具身智能实验室,丝绸之路多语言认知计算联合国际实验室,计算机科学与技术学院) 💡 毒舌点评 论文将说话人身份信息作为主动调制信号注入模型三个阶段(输入、交互、输出)的思路清晰且有效,能直观地提升对异质说话人的情感判别能力,消融实验也证实了每个模块的贡献。然而,特征可视化部分(t-SNE图)仅展示了类内紧凑、类间分离的总体趋势,未能深入剖析模型究竟是如何“解耦”说话人特征与情感特征的,这一部分论证力度较弱。 🔗 开源详情 代码:论文中未提及代码仓库链接。 模型权重:未提及公开模型权重。 数据集:使用MELD和IEMOCAP公开数据集,论文未提供数据集本身,但指明了特征来源(MultiEMO源代码提供)。 Demo:未提及在线演示。 复现材料:论文给出了实验硬件(RTX 4090)、Batch Size设置,并复现了基线模型MultiEMO作为对照。特征来源明确。但模型具体结构(如层数、维度)、优化器、学习率等训练细节未说明。 论文中引用的开源项目:引用了OpenSMILE用于特征提取,ResNet用于视觉特征提取。 总结:论文中未提及明确的开源计划。复现依赖于自行实现模型架构,并使用MultiEMO提供的特征。 📌 核心摘要 要解决什么问题:现有的多模态对话情感识别模型通常将不同说话人视为可互换的实体,忽略了个体间情感表达方式的巨大差异(即说话人异质性),导致特征错配和无效融合,影响了识别精度,尤其对少数情感类别效果不佳。 方法核心是什么:提出多层说话人自适应网络(ML-SAN)。其核心是三级自适应机制:输入级校准(使用FiLM根据说话人特征归一化原始音视觉特征分布),交互级门控(基于说话人身份动态调整不同模态的权重),输出级正则化(引入说话人分类辅助损失,保持潜在空间的说话人特征一致性)。 与已有方法相比新在哪里:区别于以往将说话人ID作为简单嵌入或完全忽略的方法,ML-SAN首次将说话人身份作为贯穿整个模型流程的主动控制信号,在特征处理的多个层面实现细粒度的个性化适配,旨在将模型决策边界从“说话人无关”转变为“说话人自适应”。 主要实验结果如何:在MELD和IEMOCAP两个基准数据集上,ML-SAN均取得了最优性能。在MELD上,加权F1(W-F1)达到 67.73±0.07%,较复现的强基线MultiEMO(66.34±0.04%)提升1.39%;在IEMOCAP上达到 73.28±0.13%,较基线(72.02±0.07%)提升1.26%。消融实验证实三个模块均对性能有贡献,其中输入校准和输出正则化分别在不同数据集上作用更显著。混淆矩阵显示模型在区分“恐惧”、“愤怒”等易混淆情绪上有提升。 实际意义是什么:该工作使情感识别模型能更准确地理解个性化情感表达,对于提升情感机器人、智能客服、心理健康监测等应用中的人机交互自然度和准确性具有直接价值,特别是在需要长期、多轮交互的场景中。 主要局限性是什么:论文承认模型可能对背景噪声和模态缺失等真实世界干扰的鲁棒性有待提升。此外,虽然模型在两个数据集上有效,但其性能是否在更广泛、更多样化的说话人群体中依然稳健,需要进一步验证。开源代码和模型未提供也限制了社区的快速跟进与复现。 🏗️ 模型架构 模型整体架构旨在将说话人身份信息转化为对特征处理、模态融合和最终表征的主动调制。其流程如图2所示。 ...

2026-04-29

MMAudioSep: Taming Video-to-Audio Generative Model Towards Video/Text-Queried Sound Separation

📄 MMAudioSep: Taming Video-to-Audio Generative Model Towards Video/Text-Queried Sound Separation #语音分离 #流匹配 #多模态模型 #预训练 #迁移学习 🔥 8.0/10 | 前25% | #语音分离 | #流匹配 | #多模态模型 #预训练 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Akira Takahashi(Sony Group Corporation, Japan) 通讯作者:未说明 作者列表:Akira Takahashi(Sony Group Corporation, Japan)、Shusuke Takahashi(Sony Group Corporation, Japan)、Yuki Mitsufuji(Sony Group Corporation, Japan & Sony AI, USA) 💡 毒舌点评 亮点在于极具创意地“废物利用”,让一个“造声音”的生成模型去干“分声音”的分离活儿,还干得不错,这种跨任务的知识迁移思路本身就很值钱。短板则在于,用生成模型的评价体系(FAD, CLAP)来评判分离任务的好坏,如同用“饭菜香气”来评价厨师刀工是否精准,方法论的适配性有待更深入的讨论;另外,模型在分离后“不忘本”的生成能力验证也略显粗糙。 🔗 开源详情 代码:论文中提供了代码仓库链接:https://github.com/sony/mmaudiosep。 模型权重:论文中未明确提及是否公开预训练的MMAudioSep模型��重或其依赖的预训练MMAudio权重。 数据集:论文中使用的训练数据集(VGGSound, AudioCaps等)是公开的。评估数据集(VGGSound-Clean, MUSIC)引用自AudioSep项目,部分可通过其GitHub获取。 Demo:论文中未提及在线演示链接。 复现材料:论文提供了架构图、关键超参数(如ODE步数、引导强度)和训练策略的大致描述,但缺少如学习率、batch size、具体训练步数等关键复现细节。复现强依赖于预训练的MMAudio模型。 论文中引用的开源项目:主要依赖于MMAudio(预训练模型)、CLIP、Synchformer、BiGVGAN(声码器)、AudioSep(评估数据集)、以及用于评估的av-benchmark工具。 📌 核心摘要 问题:传统声音分离模型通常基于判别式方法,而近期基于生成模型的声音分离也开始出现,但与同样使用生成模型的视频到音频(V2A)任务发展相互独立。本文旨在探索能否利用强大的预训练生成模型知识来提升分离任务。 ...

2026-04-29

MMEB-V3: Measuring the Performance Gaps of Omni-Modality Embedding Models

📄 MMEB-V3: Measuring the Performance Gaps of Omni-Modality Embedding Models #基准测试 #模型评估 #多模态模型 #跨模态 #音频检索 ✅ 7.5/10 | 前25% | #基准测试 | #模型评估 | #多模态模型 #跨模态 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Haohang Huang (Eastern Institute of Technology, Ningbo) 通讯作者:Rui Meng (Google AI Research) 作者列表:Haohang Huang¹, Xuan Lu¹², Mingyi Su⁴, Xuan Zhang⁵, Ziyan Jiang⁶, Ping Nie⁴, Kai Zou⁷, Tomas Pfister³, Wenhu Chen⁴, Wei Zhang (未说明), Xiaoyu Shen¹, Rui Meng³ ¹Eastern Institute of Technology, Ningbo ²Shanghai Jiao Tong University ³Google AI Research ⁴University of Waterloo ⁵NUS (National University of Singapore) ⁶UCSB (University of California, Santa Barbara) ⁷Netmind.ai 💡 毒舌点评 亮点: 论文敏锐地指出了当前多模态嵌入模型在“指令约束模态”这一实际应用中的关键缺陷,并构建了一个覆盖音频、智能体任务的庞大基准(MMEB-V3)和精巧的诊断数据集(OmniSET)来系统性验证这一问题,研究动机扎实,分析深入。 短板: 本文的核心贡献是一个“评测基准”和“诊断分析”,而非提出一个新的多模态嵌入模型或解决该问题的创新算法,这使其更像一篇扎实的“系统工程与分析”论文,而非突破性的“方法创新”论文。 ...

2026-04-29

MNV-17: A High-Quality Performative Mandarin Dataset for Nonverbal Vocalization Recognition in Speech

📄 MNV-17: A High-Quality Performative Mandarin Dataset for Nonverbal Vocalization Recognition in Speech #语音识别 #数据集 #语音大模型 #多任务学习 #开源工具 ✅ 7.5/10 | 前25% | #语音识别 | #数据集 | #语音大模型 #多任务学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表: Jialong Mai(华南理工大学) Jinxin Ji(香港理工大学,同济大学) Xiaofen Xing(华南理工大学) Chen Yang(上海交通大学) Weidong Chen(香港中文大学) Jingyuan Xing(华南理工大学) Xiangmin Xu(华南理工大学,佛山大学) 💡 毒舌点评 亮点:论文精准切中了非语语音识别领域“数据荒”的痛点,并提供了一套从数据采集(LLM脚本生成)、标注(多模态LLM分割)到模型评估的完整解决方案,其17类平衡数据集的发布具有明确的实用价值。 短板:数据集总时长仅7.55小时,且采用“表演性”录制,其在真实、自发对话场景中的适用性存疑;实验虽全面但深度有限,仅评估了四个现成模型的微调性能,缺乏对数据本身声学特性或更复杂交互建模的深入探讨。 🔗 开源详情 代码:论文提供了GitHub仓库链接(https://github.com/yongaifadian1/MNV-17),但未明确说明该仓库是否包含数据处理或模型训练的代码。 模型权重:论文明确提到提供预训练模型检查点。 数据集:论文明确提到MNV-17数据集是公开的。 Demo:论文中未提及在线演示。 复现材料:论文提供了模型选择、训练策略(如优化器、学习率、LoRA参数)、数据划分协议等关键信息。但未提供完整的配置文件、数据预处理脚本或详细的硬件信息。 论文中引用的开源项目:引用了Praat(语音录制)、pyannote.audio(VAD,用于对比)、Montreal Forced Aligner(MFA,用于对比)、Paraformer、Whisper(未明确提及,但作为常见基线)、SenseVoice、Qwen2-Audio、Qwen2.5-Omni、Gemini(用于数据分割)。 📌 核心摘要 问题:主流自动语音识别系统无法识别语音中嵌入的非语语音(如笑声、叹气、咳嗽),这限制了对人类交流中情感和意图的全面理解。主要瓶颈在于缺乏高质量、标注精准且类别平衡的训练数据集。 方法:本文提出了MNV-17数据集,一个7.55小时的普通话“表演性”语音数据集,包含17类常见非语语音。通过大语言模型生成上下文自然的脚本,确保类别平衡和分布合理。录音后,利用音频多模态大模型(Gemini)进行精确的句子级时间戳标注,并用ASR模型(Whisper)进行质量过滤。 新意:相比于现有数据集(类别3-10个,最大/最小频率比高达516),MNV-17拥有最多的17个类别,且类别分布极为平衡(最大/最小频率比仅为2.7)。其“表演性”采集方式旨在获得清晰、明确的非语语音实例。 结果:在四个主流ASR模型(SenseVoice, Paraformer, Qwen2-Audio, Qwen2.5-Omni)上进行了联合转录与非语语音分类基准测试。关键结果如表2所示:Qwen2.5-Omni在联合字符错误率上取得最佳3.60%。关键结果如表3所示:非语语音识别准确率(要求类型、数量、顺序完全匹配)最高为SenseVoice和Qwen2.5-Omni的57.29%。关键结果如表4所示:多任务预训练模型在增加非语语音识别任务后,其核心ASR性能损失很小甚至有所提升(Qwen2-Audio的CER从3.05%降至2.60%)。 意义:为表达性语音理解提供了关键资源,验证了大型多任务音频模型能有效整合非语语音识别能力,且不损害甚至提升其核心转录性能,为未来更人性化的对话系统奠定了基础。 局限性:数据集总规模较小;“表演性”数据与真实自发语音可能存在差异;实验评估集中于现有模型的微调,未提出针对该任务的新型模型架构。 🏗️ 模型架构 本文并未提出新的模型架构,而是将MNV-17数据集应用于评估四种现有的主流ASR架构,并对其进行联合任务微调。主要架构类型为: ...

2026-04-29

Modeling Both Intra- And Inter-Utterance Variability for Conversational Emotion Recognition

📄 Modeling Both Intra- And Inter-Utterance Variability for Conversational Emotion Recognition #语音情感识别 #图神经网络 #大语言模型 #多模态模型 #零样本 ✅ 6.5/10 | 前25% | #语音情感识别 | #图神经网络 | #大语言模型 #多模态模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yumeng Fu(哈尔滨工业大学计算机科学与技术学院) 通讯作者:Bingquan Liu(哈尔滨工业大学计算机科学与技术学院) 作者列表:Yumeng Fu¹, Shouduo Shang¹, Junjie Wu², Meishan Zhang³, Bingquan Liu¹* ¹ 哈尔滨工业大学计算机科学与技术学院,哈尔滨,中国 ² 苏州大学计算机科学与技术学院,苏州,中国 ³ 哈尔滨工业大学计算机科学与技术学院,深圳,中国 💡 毒舌点评 亮点在于其将语音的“动态”信息(内部变异性和结构关系)显式编码为图,并设计适配器注入LLM,这比简单地将音频特征拼接或文本化要更精巧。短板是语音特征提取严重依赖另一个闭源或大型商用大模型(Qwen2-Audio),而非端到端学习,这在实用性和可复现性上打了折扣,且论文对提取的语音特征本身的准确性和鲁棒性缺乏验证。 🔗 开源详情 代码:论文中未提及代码链接或开源计划。 模型权重:未提及公开训练好的MM-VLN模型权重。 数据集:使用了公开的IEMOCAP和MELD数据集,论文未说明如何获取或处理,但数据集本身是公开的。 Demo:未提供在线演示。 复现材料:提供了主要的实验设置(数据集、基础模型、LoRA、部分超参数),但关键细节如损失函数、图GAT的隐藏层维度、适配器的具体结构参数、完整的训练配置等缺失,完整复现存在困难。 论文中引用的开源项目:主要引用了LoRA、RoBERTa、BLIP-2等作为方法组件或灵感来源。核心依赖的预训练模型包括Llama3-8B、Qwen2.5-7B、Qwen2-Audio-7B-Instruct、RoBERTa和DSM话语解析模型,但这些均为第三方模型,并非本文开源。 📌 核心摘要 问题:现有基于LLM的对话情绪识别(ERC)方法主要关注文本,忽略了语音中丰富的声学特征(如音调、语速)以及对话本身的结构信息。 方法:提出多模态变异性学习网络(MM-VLN)。首先,利用一个大语言模型(Qwen2-Audio-7B-Instruct)提取每句话的内部语音变异性(音调、语速等)。其次,使用话语解析模型获取对话的句间依赖结构。然后,将语音变异性信息作为节点、对话结构作为边构建图,使用图注意力网络(GAT)进行编码。最后,通过一个跨注意力适配器将GAT的输出投影为“图令牌”,与文本嵌入拼接后输入LLM(Llama3-8B/Qwen2.5-7B)进行情绪预测。 创新点:首次将对话的语音结构信息(内部变异性和句间关系)通过图神经网络显式建模,并通过适配器无缝对接到LLM的表示空间,作为辅助任务增强情绪理解。 实验结果:在IEMOCAP和MELD两个数据集上,MM-VLN(使用Llama3-8B)分别达到了72.05%和70.58%的加权F1分数,相比强基线(使用SpeechCueLLM提取的语音描述进行微调)提升了1.84%和3.15%。消融实验表明,去除内部或句间语音变异性都会导致性能下降,证明两者互补。在零样本场景下,加入语音变异性信息也能提升多个LLM的性能。 实际意义:为多模态大语言模型如何有效整合非文本模态的结构化信息提供了新思路,有望提升人机交互中的情感理解能力。 主要局限性:语音特征提取依赖外部大模型,引入额外计算开销和潜在误差;图结构依赖预训练的话语解析模型,其准确性会影响最终效果;论文未公开代码,且损失函数等细节缺失。 🏗️ 模型架构 ...

2026-04-29

Modeling Inter-Segment Relationships in Speech for Dementia Detection with Audio Spectrogram Transformers and Graph Attention Networks

📄 Modeling Inter-Segment Relationships in Speech for Dementia Detection with Audio Spectrogram Transformers and Graph Attention Networks #语音生物标志物 #音频大模型 #图神经网络 #预训练 #音频分类 ✅ 7.0/10 | 前25% | #语音生物标志物 | #图神经网络 | #音频大模型 #预训练 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Raphael Anaadumba (University of Massachusetts Lowell, Richard A. Miner School of Computer and Information Sciences) 通讯作者:Raphael Anaadumba (根据“Corresponding author”标注) 作者列表:Raphael Anaadumba (University of Massachusetts Lowell), Nazim A. Belabbaci (University of Massachusetts Lowell), Anton Kovalev (University of Massachusetts Lowell), Mohammad Arif Ul Alam (University of Massachusetts Lowell) 💡 毒舌点评 本文巧妙地将图注意力网络引入语音病理分析,首次明确建模“语音段”间的图状关系以捕捉话语结构异常,这一视角确实比简单池化或纯序列模型更贴近临床认知,并在MCI检测上取得了亮眼提升。然而,实验规模局限于两个英语数据集,且未开源代码,使得这一新颖方法在更广泛场景下的有效性和可复现性大打折扣。 ...

2026-04-29