Decoder-Only Conformer with Modality-Aware Sparse Mixtures of Experts for ASR

📄 Decoder-Only Conformer with Modality-Aware Sparse Mixtures of Experts for ASR #语音识别 #混合专家模型 #多任务学习 #多语言 ✅ 7.5/10 | 前25% | #语音识别 | #混合专家模型 | #多任务学习 #多语言 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表:Jaeyoung Lee (NTT, Inc., Japan), Masato Mimura (NTT, Inc., Japan) 💡 毒舌点评 这篇论文巧妙地将模态感知的稀疏MoE融入解码器端Conformer,用一个统一模型处理语音和文本,在参数更少(113M vs. 139M)的情况下超越了传统AED基线,展现了架构简化与效率提升的潜力。然而,其“统一”处理的前提是已知模态边界(语音/文本位置固定),这限制了模型在更灵活的交错输入场景下的应用;此外,依赖CTC辅助损失和标签平滑才达到竞争力,也暗示了该架构自身在稳定训练上的短板。 📌 核心摘要 本文针对自动语音识别(ASR)任务,提出了一种仅使用解码器端的Conformer架构,旨在无需外部语音编码器或预训练大语言模型(LLM)的前提下,统一处理语音特征和文本标记。其核心创新在于引入了模态感知的稀疏混合专家模型(MoE),为语音和文本设置了不相交的专家池并采用硬路由和top-1选择机制,并与混合因果性Conformer块(语音双向,文本因果)相结合。与现有方法相比,本文是首次在随机初始化的解码器架构中,通过模态感知路由和稀疏MoE,实现了无需显式对齐模块且超越强编码器-解码器(AED)基线的性能。实验表明,在LibriSpeech数据集上,该113M参数模型在test-clean和test-other上的词错误率(WER)分别为2.8%和5.6%,优于139M参数的AED基线(3.2% vs. 6.0%)。在CommonVoice 16.1的五语言多语言任务中,平均WER从12.2%降低至10.6%。该工作的实际意义在于证明了解码器端统一架构在ASR中的可行性,为简化ASR系统流水线提供了新思路。主要局限性包括:目前仅支持离线推理,尚未探索流式处理;模型依赖预设的模态边界,缺乏对模态间灵活交互的探索;未来工作可扩展至流式ASR及跨模态专家共享机制。 模型/设置 骨干网络 活跃参数量 test-clean WER(%) test-other WER(%) AED, 17层编码器 / 6层解码器 Conformer 139M 3.2 6.0 仅解码器 17层 Transformer 64M 3.6 7.8 仅解码器 17层 Conformer 113M 3.4 6.4 + MoE (无模态分组, top-2) Conformer 113M 2.8 6.3 + MoE, 模态感知 (每模态 top-1) Conformer 113M 2.8 5.6 表 1: LibriSpeech WER (%) 对比。 模态感知的解码器端Conformer在参数更少的情况下,取得了最佳性能。 ...

2026-04-29

Interpretable Music Harmonic Analysis Through Multilinear Mixture of Experts

📄 Interpretable Music Harmonic Analysis Through Multilinear Mixture of Experts #音乐理解 #混合专家模型 #模型评估 #音乐信息检索 #数据集 ✅ 7.5/10 | 前25% | #音乐理解 | #混合专家模型 | #模型评估 #音乐信息检索 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Thanasis Triantafyllou(雅典大学信息与电信系) 通讯作者:未说明(论文未明确指定) 作者列表: Thanasis Triantafyllou(雅典大学信息与电信系) Mihalis A. Nicolaou(塞浦路斯大学,塞浦路斯研究所) Yannis Panagakis(雅典大学信息与电信系,Archimedes, Athena R.C.) 💡 毒舌点评 亮点在于首次将内在可解释架构(µMoE) 引入罗马数字分析任务,让模型决策变得对音乐学家“透明”,专家激活模式确实呈现出符合理论的五度圈和V-I关系。短板是性能相比基准模型RNBERT有1-2个点的下降,且实验局限于单一任务和特定数据集,未能充分展示该架构在其他音乐分析任务或更大规模模型上的潜力和鲁棒性。 📌 核心摘要 问题:现有基于Transformer的罗马数字分析(RNA)模型(如RNBERT)虽然性能先进,但缺乏可解释性,无法向音乐学家解释其分析背后的音乐理论依据,限制了其在学术研究中的应用价值。 核心方法:提出µMoE-RNBERT,通过用多线性混合专家(µMoE)层替换RNBERT中前馈网络(MLP)的线性层,构建第一个内在可解释的深度RNA系统。不同的专家子网络能够学习并专门处理不同的和声模式。 创新之处:是首个为RNA任务设计的内在可解释深度学习系统。不同于事后解释,其可解释性源于模型架构本身。该方法在保持与原始RNBERT几乎相同参数量(~26.7M)和计算成本的前提下,引入了专家专业化机制。 实验结果:在相同数据集和评估协议下,µMoE-RNBERT取得了与基准RNBERT可比但略低的性能。具体而言,整体罗马数字准确度(RN Accuracy)在74.6%-74.9%之间(基准为76.2%),在关键、质量、音级等子任务上也略有差距。但定性分析表明,专家激活显著遵循音乐理论,例如,不同专家专注于特定调性及其中的V-I进行,并呈现出五度圈的邻近调性模式。 实际意义:为音乐信息检索(MIR)和计算音乐学研究提供了一个可解释的AI工具。音乐学家可以观察并验证模型分析所依据的内部“音乐规则”,从而增进对模型行为的信任,并可能从中发现新的音乐结构洞见。 主要局限性:a) 性能相比当前最优基线有轻微损失;b) 可解释性分析主要基于可视化和统计观察,缺乏更系统的量化评估框架;c) 该方法的有效性尚未在其他音乐理解任务(如旋律生成、节奏分析)上得到验证。 🏗️ 模型架构 µMoE-RNBERT的整体架构基于RNBERT,其核心改动是将标准MLP层替换为µMoE层。 ...

2026-04-29

Mixture of Experts for Recognizing Depression from Interview and Reading Tasks

📄 Mixture of Experts for Recognizing Depression from Interview and Reading Tasks #语音生物标志物 #混合专家模型 #多模态模型 #端到端 ✅ 6.0/10 | 前50% | #语音生物标志物 | #混合专家模型 | #多模态模型 #端到端 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Loukas Ilias(雅典国立技术大学电气与计算机工程学院 DSS实验室) 通讯作者:未说明 作者列表:Loukas Ilias(雅典国立技术大学电气与计算机工程学院 DSS实验室),Dimitris Askounis(雅典国立技术大学电气与计算机工程学院 DSS实验室) 💡 毒舌点评 亮点:这篇论文的最大亮点在于它“不满足于现状”,没有沿用只分析自发语音或简单拼接特征的常规思路,而是系统性地探索了将朗读与自发语音通过复杂的张量分解融合,并引入MoE进行“因材施教”,这种技术组合的探索精神值得肯定。 短板:然而,所有华丽的架构都建立在仅110个样本的“地基”上,导致核心结果表(表1)中各项指标的标准差(±6%~±13%)甚至比一些方法的性能提升幅度还大,这使得“我们更好”的结论显得底气不足,其声称的SOTA地位在更大数据集上能否复现要打个大大的问号。 📌 核心摘要 问题:现有抑郁症语音识别方法存在三个局限:通常只分析自发语音而忽略朗读语音;依赖难以获取或易出错的转录文本;以及未采用能根据输入内容自适应调整计算方式的模型(如MoE)。 方法:本文提出一个端到端的深度神经网络框架。它将朗读语音和自发语音(面试)分别转换为包含log-Mel频谱图及其一阶、二阶差分的三通道图像。这些图像通过两个共享权重的预训练AlexNet提取特征,得到768维向量。随后,使用基于块张量分解的BLOCK多模态融合方法将两个特征向量融合。最后,融合特征被送入混合专家层进行分类。论文对比了三种MoE变体:稀疏门控MoE、基于CP分解的CPµMoE和基于张量环分解的TRµMoE。 新意:这是首次在抑郁症识别任务中,(1)联合建模朗读与自发语音;(2)采用基于张量分解的多模态融合;(3)将输入条件计算(MoE)集成到单一端到端网络中。与之前简单使用AlexNet或拼接特征的方法相比,本文强调了更精细的特征融合与动态的专家路由。 结果:在Androids语料库(110样本)上的实验表明,本文提出的最佳模型TRµMoE达到了87.00%的准确率和86.66%的F1分数。消融实验证实了融合两种语音、使用BLOCK融合以及引入MoE层的必要性。例如,去掉MoE层后准确率下降3.31%,仅使用自发语音时准确率仅为81.73%。 意义:该工作验证了结合不同语音任务(朗读+自发)并利用更高级的融合与动态计算模型,能为抑郁症等心理健康问题的语音生物标志物检测提供更全面、更有效的建模途径。 局限:主要局限是数据集规模极小(仅110人),导致所有实验结果的标准差巨大,模型的稳定性和泛化能力未经验证。此外,研究仅基于意大利语单语种数据,缺乏跨语言验证。 🏗️ 模型架构 论文提出了一种用于抑郁症识别的多模态端到端深度神经网络架构,整体流程如下: 输入处理: 将朗读语音和面试(自发语音)的音频文件分别转换为三通道图像。每个图像包含:(a) log-Mel频谱图,(b) 其速度(Δ),(c) 其加速度(ΔΔ)。图像尺寸统一调整为224×224像素。这一步使用了librosa库。 设朗读任务图像为 f_read,面试任务图像为 f_interview。 特征提取: ...

2026-04-29

Mixtures of Lightweight Articulatory Experts for Multilingual Asr

📄 Mixtures of Lightweight Articulatory Experts for Multilingual Asr #语音识别 #混合专家模型 #多语言 #低资源 #多任务学习 ✅ 7.0/10 | 前25% | #语音识别 | #混合专家模型 | #多语言 #低资源 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明(论文中Masato Mimura与Jaeyoung Lee并列,但通常作者列表顺序有意义,未明确标注) 通讯作者:未说明 作者列表:Masato Mimura (NTT, Inc., Japan), Jaeyoung Lee (NTT, Inc., Japan), Ryo Magoshi (School of Informatics, Kyoto University, Japan), Tatsuya Kawahara (School of Informatics, Kyoto University, Japan) 💡 毒舌点评 这篇论文巧妙地将MoE架构的“稀疏激活”与语言学中稳定的发音特征结合,用“小专家”解决“大模型”的低效问题,在多种语言上取得了稳定提升,证明了语言学归纳偏置的价值。然而,论文在工程细节上显得“吝啬”,未公开代码与模型,且仅在CommonVoice数据集上验证,缺乏与Whisper等大规模模型的直接对比,使其结论在更广场景下的普适性存疑。 ...

2026-04-29

Prompt-Guided Mixture-of-Experts for Robust Multimodal Sentiment Analysis with Missing Modalities

📄 Prompt-Guided Mixture-of-Experts for Robust Multimodal Sentiment Analysis with Missing Modalities #语音情感识别 #多模态模型 #混合专家模型 #低资源 #知识蒸馏 #鲁棒性 🔥 8.5/10 | 前25% | #语音情感识别 | #混合专家模型 | #多模态模型 #低资源 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 0.2 | 置信度 中 👥 作者与机构 第一作者:Ziqi Shu (厦门大学电影学院) 通讯作者:Qingfeng Wu (厦门大学电影学院) 作者列表:Ziqi Shu† (厦门大学电影学院), Rongzhou Zhou† (厦门大学电影学院), Xiaodong Wang (厦门大学电影学院), Qingfeng Wu⋆ (厦门大学电影学院), Lu Cao (厦门大学) 💡 毒舌点评 亮点在于将MoE架构与Prompt生成、置信度加权相结合,为缺失模态问题提供了一个模块化且有理论深度的解决方案,且跨数据集、跨骨干网络的泛化性验证比较扎实。短板是论文对“生成式Prompt如何有效补偿缺失信号”这一核心假设的论证略显薄弱,更像一个工程组合而非原理上的突破,且完全未开源代码,对于声称解决实际问题的工作来说,可复现性大打折扣。 📌 核心摘要 本文针对多模态情感识别中普遍存在的模态缺失问题,提出了一个名为PMoE(Prompt-guided Mixture-of-Experts)的鲁棒识别框架。该方法的核心在于,在冻结的预训练Transformer主干网络基础上,引入三个关键组件:1)一个基于生成式Prompt和置信度加权融合的缺失模态补偿方案,用于生成并动态融合缺失模态的可靠表示;2)一个具有两阶段动态路由机制的MoE层,通过模态特定专家和共享专家池实现灵活的跨模态特征融合;3)一个自蒸馏策略,利用历史模型输出作为软目标来稳定训练和提升泛化能力。与已有方法(如MCTN、MMIN、MPLMM等)相比,PMoE首次将Prompt引导的生成、置信度评估、MoE的动态专家选择以及知识蒸馏有机结合,更系统地应对信息补偿、融合不稳定和训练泛化三大挑战。实验在CMU-MOSI、MOSEI、IEMOCAP和CH-SIMS四个基准数据集上进行,结果表明PMoE在各种模态缺失场景下(尤其是严重缺失时)均取得最优的准确率和F1分数。例如,在MOSEI数据集上,其平均准确率比最强基线MPLMM高出1.34%。该工作的实际意义在于为真实世界中因设备、隐私等原因导致的模态不完整场景提供了一个高效、鲁棒的情感分析解决方案。主要局限性在于:缺失模态生成器的性能高度依赖跨模态映射和注意力机制的有效性,可能在模态差异巨大时失效;论文未提供代码,限制了复现和验证。 🏗️ 模型架构 图1展示了PMoE的整体框架。其数据处理流程如下: ...

2026-04-29

UMV: A Mixture-Of-Experts Vision Transformer with Multi-Spectrogram Fusion for Underwater Ship Noise Classification

📄 UMV: A Mixture-Of-Experts Vision Transformer with Multi-Spectrogram Fusion for Underwater Ship Noise Classification #音频分类 #时频分析 #混合专家模型 #Vision #鲁棒性 ✅ 7.5/10 | 前25% | #音频分类 | #混合专家模型 | #时频分析 #Vision 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:未说明(论文标题下列出 Haihan Zhang†,但正文未明确其排序,且有两个†符号) 通讯作者:Guowei Wu(根据脚注“Corresponding author: wgwdut@dlut.edu.cn”) 作者列表:Haihan Zhang†, Guowei Wu†(†School of Software, Dalian University of Technology) Haihan Zhang(大连理工大学软件学院) Guowei Wu(大连理工大学软件学院) 💡 毒舌点评 亮点:论文提出了一个直观且有效的“多频谱特征拼接 + 卷积投影融合”策略,确实提升了基线ViT的性能,证明了特征多样性对小数据任务的价值。短板:将MoE引入ViT带来了显著的参数量(约284M)和计算复杂度(约68.8G FLOPs)增长,对于一个仅有四分类、数据量有限的任务而言,模型效率令人质疑,且论文未探讨轻量化方案。 📌 核心摘要 这篇论文旨在解决水下船舶噪声分类中数据稀缺和噪声环境复杂两大挑战。作者提出了一种名为UMV(Underwater Mixture-of-Experts Vision Transformer)的新型架构。该方法的核心在于:1)通过一个卷积融合模块,将STFT功率谱图、梅尔谱图和梅尔频率倒谱系数(MFCC)三种互补的频谱特征进行融合,形成更丰富的输入表示;2)在Vision Transformer编码器的前馈网络中,集成了一个采用Top-k稀疏路由机制的混合专家模型,以提升模型的表达能力和鲁棒性。在DeepShip数据集上,UMV达到了99.14%的分类准确率,相比基线ViT提升了3.18%,并且在高斯、粉红、虾类和螺旋桨等噪声环境下仍能保持超过92%的准确率(在20dB SNR下),显著优于现有的基于CNN和Transformer的方法。该工作的实际意义在于为水下声学监测提供了一种高精度、高鲁棒性的分类模型。主要局限性包括:模型参数量和计算量较大,可能不适合实时或资源受限的部署;未与更多最新的、专门的水下声学Transformer模型进行直接对比;且未开源代码或模型。 ...

2026-04-29

MoVE: Translating Laughter and Tears via Mixture of Vocalization Experts in Speech-to-Speech Translation

📄 MoVE: Translating Laughter and Tears via Mixture of Vocalization Experts in Speech-to-Speech Translation #语音翻译 #混合专家模型 #音频大模型 #少样本 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Szu-Chi Chen (台湾大学,国立台湾大学) 通讯作者:Hung-yi Lee (台湾大学,国立台湾大学;根据贡献和常见通讯作者习惯推断) 其他作者: I-Ning Tsai (台湾大学,国立台湾大学) Yi-Cheng Lin (台湾大学,国立台湾大学) Sung-Feng Huang (NVIDIA,英伟达台湾) 💡 毒舌点评 亮点:精准抓住了S2ST“翻译了语义,却丢失了灵魂(笑声/哭泣)”这个长期痛点,并用一套从数据到模型的组合拳(合成数据管道+MoE架构+两阶段训练)系统性地解决了它,效果拔群,NV保留率从14%飙升到76%。槽点:数据合成依赖于现有的情感TTS和过滤器,可能引入合成偏差;目前只聚焦于五种特定情感/声音,离建模人类全部复杂细腻的情感光谱还有距离。 📌 核心摘要 这篇论文旨在解决语音到语音翻译(S2ST)系统普遍缺失非语言声音(如笑声、哭泣)和情感韵律的问题,这严重限制了跨语言交流的自然度和语用准确性。作者提出了三大贡献:1) 一个可扩展的表达性数据合成管道,能自动生成高质量、带情感标注的S2ST训练对,克服了数据稀缺瓶颈;2) MoVE(混合声音专家)架构,基于预训练音频大模型(Kimi-Audio),通过并行多个情感特化的LoRA适配器和一个动态软加权路由器,实现了对混合情感状态的精细建模,避免了特征干扰;3) 揭示了惊人的数据效率,仅需30分钟的精选数据微调,就能激活预训练模型的强大潜力,达到接近全量数据95%的情感保真度。实验表明,MoVE在英中翻译任务上,在语义准确性和非语言声音保留率(76%)上均大幅超越现有SOTA系统,并获得了最高的人工评价自然度和情感相似度分数。 🏗️ 模型架构 MoVE架构建立在预训练的音频大模型Kimi-Audio之上,其核心流程如下: 输入:源语言语音波形。 编码与离散化: 语音首先通过一个Whisper编码器(经过在表达性数据集上微调)提取高级语义和声学特征。 同时,语音通过音频分词器(Audio Tokenizer) 被离散化为一系列语音token。 LLM处理(核心创新): 离散token序列输入到冻结参数的Kimi-Audio LLM主干中。 在LLM的每个Transformer层中,注入了五个并行的LoRA专家适配器,分别专精于“高兴”、“悲伤”、“愤怒”、“大笑”、“哭泣”五种声音流形。每个专家独立作用于注意力层和前馈网络的投影矩阵(Wq, Wk, Wv, Wo, Wgate)。 一个动态软加权路由器(一个带Softmax的轻量线性层)根据当前token的隐藏状态x,为五个专家的输出计算混合权重g_i(x)。最终层的输出是基础模型权重与所有专家加权输出的和:h(x) = W0*x + Σ g_i(x) * (B_i * A_i * x)。这实现了token级别的、连续的情感混合。 解码与生成: LLM输出的离散语音token序列被送入音频解解码器(Audio Detokenizer)。 该解码器经过在表达性数据(特别是非语言声音)上的微调,能更好地将token重建为包含丰富情感和非语言声音的目标语言语音波形。 输出:保留了源语音情感和非语言声音的目标语言语音。 关键设计选择理由: ...

2026-04-21