Leveraging prediction entropy for Automatic prompt weighting in Zero-Shot Audio-Language Classification

📄 Leveraging prediction entropy for Automatic prompt weighting in Zero-Shot Audio-Language Classification #音频分类 #零样本 #多模态模型 #基准测试 #模型评估 ✅ 7.5/10 | 前25% | #音频分类 | #零样本 | #多模态模型 #基准测试 学术质量 6.2/7 | 选题价值 1.3/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Karim El Khoury† (ICTEAM, UCLouvain, Belgium), Maxime Zanella† (ICTEAM, UCLouvain, Belgium; ILIA, UMons, Belgium), Tiffanie Godelaine† (ICTEAM, UCLouvain, Belgium) (论文注明†表示贡献均等) 通讯作者:未说明 作者列表:Karim El Khoury (ICTEAM, UCLouvain, Belgium), Maxime Zanella (ICTEAM, UCLouvain, Belgium; ILIA, UMons, Belgium), Tiffanie Godelaine (ICTEAM, UCLouvain, Belgium), Christophe De Vleeschouwer (ICTEAM, UCLouvain, Belgium), Benoît Macq (ICTEAM, UCLouvain, Belgium) 💡 毒舌点评 本文提出的“熵最小化”加权策略,是一个将视觉领域思路巧妙迁移到音频-语言模型提示集成的优雅解决方案,其轻量级(可忽略的计算开销)和无需标注数据的特性使其具备即插即用的实用价值。然而,整篇论文的创新和验证都高度绑定在一个较为陈旧的模型(CLAP-2022)上,缺乏在新近、更强大的音频-语言模型(如Audio-MAE, Pengi)上的验证,这极大地限制了其贡献的通用性和时效性。 ...

2026-04-29

MaskVCT: Masked Voice Codec Transformer for Zero-Shot Voice Conversion with Increased Controllability via Multiple Guidances

📄 MaskVCT: Masked Voice Codec Transformer for Zero-Shot Voice Conversion with Increased Controllability via Multiple Guidances #语音转换 #掩码建模 #无分类器引导 #零样本 ✅ 6.5/10 | 前50% | #语音转换 | #掩码建模 | #无分类器引导 #零样本 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Junhyeok Lee(Johns Hopkins University, Center for Language and Speech Processing) 通讯作者:Najim Dehak(Johns Hopkins University, Center for Language and Speech Processing) 作者列表: Junhyeok Lee(Johns Hopkins University, Center for Language and Speech Processing) Helin Wang(Johns Hopkins University, Center for Language and Speech Processing) Yaohan Guan(Johns Hopkins University, Center for Language and Speech Processing) Thomas Thebaud(Johns Hopkins University, Center for Language and Speech Processing) Laureano Moro-Velazquez(Johns Hopkins University, Center for Language and Speech Processing) Jesús Villalba(Johns Hopkins University, Center for Language and Speech Processing) Najim Dehak(Johns Hopkins University, Center for Language and Speech Processing) 💡 毒舌点评 这篇论文的亮点在于其前所未有的控制灵活性,通过巧妙设计让用户能在推理时“拧旋钮”来平衡音色、音高和音素,而非被固定在一种模式里。然而,其短板也很明显:MaskVCT-Spk模式为了极致音色模仿,可懂度(WER)比最强基线差了近一倍,且论文对如何系统化地选择那些“旋钮”权重(CFG系数)的讨论略显薄弱,更像是试错后的结果。 ...

2026-04-29

MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion via Mean Flows

📄 MeanVC: Lightweight and Streaming Zero-Shot Voice Conversion via Mean Flows #语音转换 #零样本 #流匹配 #自回归模型 #流式处理 ✅ 7.5/10 | 前25% | #语音转换 | #流匹配 | #零样本 #自回归模型 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Guobin Ma(西北工业大学计算机学院, Audio, Speech and Language Processing Group (ASLP@NPU)) 通讯作者:Lei Xie(西北工业大学计算机学院, ASLP@NPU)、Pengcheng Zhu(吉利汽车研究院(宁波)有限公司) 作者列表: Guobin Ma(西北工业大学计算机学院, ASLP@NPU) Jixun Yao(西北工业大学计算机学院, ASLP@NPU) Ziqian Ning(西北工业大学计算机学院, ASLP@NPU) Yuepeng Jiang(西北工业大学计算机学院, ASLP@NPU) Lingxin Xiong(吉利汽车研究院(宁波)有限公司) Lei Xie(西北工业大学计算机学院, ASLP@NPU) Pengcheng Zhu(吉利汽车研究院(宁波)有限公司) 💡 毒舌点评 亮点:用仅14M参数的轻量模型,在流式推理中实现了远超100M级模型的零样本转换质量与效率(RTF低至0.136),是“小模型办大事”的典范。 短板:系统依赖固定的预训练ASR和说话人编码器模块,这些模块的性能上限决定了最终效果,核心创新更像是对现有组件的巧妙“集成”与“调参”。 ...

2026-04-29

MeanVoiceFlow: One-Step Nonparallel Voice Conversion with Mean Flows

📄 MeanVoiceFlow: One-Step Nonparallel Voice Conversion with Mean Flows #语音转换 #流匹配 #非并行训练 #零样本 ✅ 7.0/10 | 前25% | #语音转换 | #流匹配 | #非并行训练 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Takuhiro Kaneko(NTT, Inc., Japan) 通讯作者:未说明 作者列表:Takuhiro Kaneko(NTT, Inc., Japan)、Hirokazu Kameoka(NTT, Inc., Japan)、Kou Tanaka(NTT, Inc., Japan)、Yuto Kondo(NTT, Inc., Japan) 💡 毒舌点评 该工作巧妙地将“均值流”这一前沿生成建模思想移植到语音转换任务,并针对性地设计了零输入约束和条件扩散输入训练来解决训练稳定性与一致性问题,思路清晰且实验扎实。但美中不足的是,其提出的“一步”模型在最终性能上并未对先前通过复杂蒸馏训练的“一步”模型形成代差优势,且完全未开源代码,让“可复现”的承诺大打折扣。 📌 核心摘要 要解决的问题:基于扩散和流匹配的语音转换模型虽然质量高,但由于需要迭代推理,转换速度慢,限制了其实时应用。 方法核心:提出MeanVoiceFlow,一个基于“均值流”的一步非并行语音转换模型。其核心是用“平均速度”替代传统流匹配中的“瞬时速度”,使得路径积分可以在单步内直接计算,无需数值近似。 主要创新:1)提出零输入约束,通过基于SSIM的结构性损失和对高质量样本设置margin的策略,稳定平均速度的训练,避免输出模糊。2)提出条件扩散输入训练,在训练时也使用混合了噪声的源语音作为输入,消除了训练和推理时的输入分布不匹配问题。 主要实验结果:在VCTK数据集的零样本语音转换任务上,MeanVoiceFlow(一步推理)的客观指标(如pMOSs=3.90, SECS=0.883)和主观评测(nMOS=3.87, sMOS=2.92)均显著优于其他一步基线模型(如VoiceGrad-FM-1),并与多步模型(如VoiceGrad-FM-30)和通过蒸馏训练的FastVoiceGrad+性能相当。关键实验数据见下表。 模型 NFE↓ nMOS↑ sMOS↑ pMOSs↑ pMOSn↑ pMOSv↑ CER↓ SECS↑ VoiceGrad-FM-1 1 3.14±0.11 2.60±0.13 3.81 3.69 4.01 1.1 0.885 FastVoiceGrad† 1 3.73±0.09* 2.93±0.11 3.96 3.77 4.04 1.3 0.888 FastVoiceGrad+† 1 3.81±0.10 2.99±0.13 3.99 3.79 4.03 1.2 0.888 MeanVoiceFlow 1 3.87±0.09 2.92±0.13 3.98 3.78 4.10 1.2 0.886 VoiceGrad-FM-30 30 3.79±0.10 2.92±0.12 3.88 3.79 4.05 1.1 0.885 († 表示需要预训练教师和判别器) 实际意义:证明了无需知识蒸馏或对抗训练等复杂流程,也能从头训练出高质量的一步语音转换模型,降低了训练门槛,简化了部署流程。 主要局限性:一步推理模型的语音自然度和说话人相似度与多步模型相比仍存在微小差距;论文未讨论模型对基频等精细声学特征的转换能力;未提供开源代码和模型,限制了社区的验证与应用。 🏗️ 模型架构 MeanVoiceFlow的架构核心是一个条件生成模型,其骨干网络(uθ)沿用了基线工作FastVoiceGrad中的U-Net结构(12层卷积,512隐藏通道,2次下采样,使用GLU和权重归一化)。 ...

2026-04-29

MELA-TTS: Joint Transformer-Diffusion Model with Representation Alignment for Speech Synthesis

📄 MELA-TTS: Joint Transformer-Diffusion Model with Representation Alignment for Speech Synthesis #语音合成 #扩散模型 #自回归模型 #端到端 #零样本 ✅ 7.0/10 | 前25% | #语音合成 | #扩散模型 | #自回归模型 #端到端 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Keyu An(Alibaba group) 通讯作者:Zhiyu Zhang(National Mobile Communications Research Laboratory, Southeast University) 作者列表:Keyu An⋆(Alibaba group)、Zhiyu Zhang⋆†(Alibaba group, National Mobile Communications Research Laboratory, Southeast University)、Changfeng Gao⋆(Alibaba group)、Yabin Li⋆(Alibaba group)、Zhendong Peng⋆(Alibaba group)、Haoxu Wang⋆(Alibaba group)、Zhihao Du⋆(Alibaba group)、Han Zhao⋆(Alibaba group)、Zhifu Gao⋆(Alibaba group)、Xiangang Li⋆(Alibaba group) 注:⋆表示Alibaba group,†表示National Mobile Communications Research Laboratory, Southeast University。第一作者和通讯作者基于论文标题下方作者列表顺序及贡献说明(“The first two authors contribute equally to this work.”)判断。 💡 毒舌点评 亮点在于用“表示对齐”模块巧妙地借用了预训练ASR编码器的语义知识来指导自回归模型生成更连贯的语义表示,确实显著加速了收敛并提升了内容一致性(WER大幅下降)。但其声称的“端到端”仍依赖预训练的说话人编码器和ASR编码器进行对齐,且声音克隆的说话人相似度(SS)在英文测试集上反而弱于其主要对比基线CosyVoice,暴露了该架构在全局声学上下文利用上的短板。 ...

2026-04-29

MI-Fuse: Label Fusion for Unsupervised Domain Adaptation with Closed-Source Large Audio-Language Model

📄 MI-Fuse: Label Fusion for Unsupervised Domain Adaptation with Closed-Source Large Audio-Language Model #语音情感识别 #领域适应 #知识蒸馏 #语音大模型 #零样本 🔥 8.0/10 | 前25% | #语音情感识别 | #领域适应 | #知识蒸馏 #语音大模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Hsiao-Ying Huang* (National Taiwan University, Taiwan) 第一作者:Yi-Cheng Lin (National Taiwan University, Taiwan) (注:论文标注Equal Contribution,故有两位共同第一作者) 通讯作者:未说明(论文中未明确标注通讯作者信息) 作者列表:Hsiao-Ying Huang (National Taiwan University, Taiwan)、Yi-Cheng Lin (National Taiwan University, Taiwan)、Hung-yi Lee (National Taiwan University, Taiwan) 💡 毒舌点评 本文巧妙地将闭源大模型(LALM)作为“黑盒教师”,与一个在源域训练的“白盒教师”(分类器)结合,并通过互信息加权融合,解决了无源适应中单教师信号不可靠的痛点,这种“双师协作”思路在受限场景下显得尤为务实。然而,框架的性能上限被严格绑定在特定闭源API的稳定性和成本上,这既是其现实意义,也构成了其最大的应用瓶颈。 ...

2026-04-29

Mispronunciation Detection and Diagnosis Without Model Training: A Retrieval-Based Approach

📄 Mispronunciation Detection and Diagnosis Without Model Training: A Retrieval-Based Approach #语音评估 #检索增强 #预训练 #零样本 #语音大模型 🔥 8.0/10 | 前25% | #语音评估 | #检索增强 | #预训练 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Huu Tuong Tu(河内科技大学,VNPT AI/VNPT集团) 通讯作者:Nguyen Thi Thu Trang(河内科技大学) 作者列表:Huu Tuong Tu(河内科技大学,VNPT AI/VNPT集团)、Ha Viet Khanh(河内科技大学)、Tran Tien Dat(河内科技大学)、Vu Huan(国家经济大学)、Thien Van Luong(国家经济大学)、Nguyen Tien Cuong(VNPT AI/VNPT集团)、Nguyen Thi Thu Trang(河内科技大学) 💡 毒舌点评 亮点:论文巧妙地将“检索”这一思想从生成领域迁移到了评估任务,构建音素嵌入池替代了复杂的模型训练,思路清新且在FRR等关键指标上效果显著,证明了预训练模型蕴含的语音知识足以支持细粒度的发音诊断。短板:作为一篇强调“无训练”的方法,其在大规模真实场景下的鲁棒性存疑,且论文承认的高插入错误率(PER高达104%)暴露出检索式方法在序列生成上的固有短板,这与其说是一个“特性”,不如说是一个待解决的“问题”。 📌 核心摘要 问题:传统的发音错误检测与诊断(MDD)系统通常需要训练或微调专门的声学模型(如音素识别器),过程复杂且依赖大量标注数据。 方法核心:提出了一种基于检索的免训练框架(PER-MDD)。首先,利用预训练的HuBERT模型,为训练集中的每个音素片段提取其中心帧的嵌入向量,构建一个“音素嵌入池”。在推理时,对测试语音的每一帧提取嵌入,在池中通过余弦相似度检索最相似的k个候选音素,通过投票和阈值筛选确定预测的音素,最后与标准音素序列对齐以检测错误。 新在哪里:首次将检索增强生成(RAG)的范式应用于MDD任务,避免了任何音素级模型的训练,完全依赖一个预训练的、通用的ASR模型(HuBERT)和一个检索过程。 主要实验结果:在L2-ARCTIC数据集上,PER-MDD在MDD的核心指标上表现优异:错误拒绝率(FRR)为4.43%(最低),F1分数为69.60%(最高),检测准确率(DA)为91.57%。与强基线MDDGCN相比,F1提升了约13个百分点。消融实验证明了HuBERT模型、中间帧池化策略和适度的检索池大小(500条语料)的有效性。 实际意义:为CAPT系统提供了一种更简单、轻量、易于部署的MDD方案,降低了构建发音诊断系统的门槛。 主要局限性:该方法会产生较多的插入错误,导致语音识别的词错误率(PER)远高于基线方法(104.08% vs ~17%),虽然论文认为这对MDD影响不大,但这仍然是其技术路线的一个明显缺陷。此外,性能依赖于检索池的质量和大小,对新领域或新说话人的泛化能力有待验证。 🏗️ 模型架构 该模型(PER-MDD)的整体架构是一个两阶段的检索流水线: ...

2026-04-29

Modeling Both Intra- And Inter-Utterance Variability for Conversational Emotion Recognition

📄 Modeling Both Intra- And Inter-Utterance Variability for Conversational Emotion Recognition #语音情感识别 #图神经网络 #大语言模型 #多模态模型 #零样本 ✅ 6.5/10 | 前25% | #语音情感识别 | #图神经网络 | #大语言模型 #多模态模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yumeng Fu(哈尔滨工业大学计算机科学与技术学院) 通讯作者:Bingquan Liu(哈尔滨工业大学计算机科学与技术学院) 作者列表:Yumeng Fu¹, Shouduo Shang¹, Junjie Wu², Meishan Zhang³, Bingquan Liu¹* ¹ 哈尔滨工业大学计算机科学与技术学院,哈尔滨,中国 ² 苏州大学计算机科学与技术学院,苏州,中国 ³ 哈尔滨工业大学计算机科学与技术学院,深圳,中国 💡 毒舌点评 亮点在于其将语音的“动态”信息(内部变异性和结构关系)显式编码为图,并设计适配器注入LLM,这比简单地将音频特征拼接或文本化要更精巧。短板是语音特征提取严重依赖另一个闭源或大型商用大模型(Qwen2-Audio),而非端到端学习,这在实用性和可复现性上打了折扣,且论文对提取的语音特征本身的准确性和鲁棒性缺乏验证。 📌 核心摘要 问题:现有基于LLM的对话情绪识别(ERC)方法主要关注文本,忽略了语音中丰富的声学特征(如音调、语速)以及对话本身的结构信息。 方法:提出多模态变异性学习网络(MM-VLN)。首先,利用一个大语言模型(Qwen2-Audio-7B-Instruct)提取每句话的内部语音变异性(音调、语速等)。其次,使用话语解析模型获取对话的句间依赖结构。然后,将语音变异性信息作为节点、对话结构作为边构建图,使用图注意力网络(GAT)进行编码。最后,通过一个跨注意力适配器将GAT的输出投影为“图令牌”,与文本嵌入拼接后输入LLM(Llama3-8B/Qwen2.5-7B)进行情绪预测。 创新点:首次将对话的语音结构信息(内部变异性和句间关系)通过图神经网络显式建模,并通过适配器无缝对接到LLM的表示空间,作为辅助任务增强情绪理解。 实验结果:在IEMOCAP和MELD两个数据集上,MM-VLN(使用Llama3-8B)分别达到了72.05%和70.58%的加权F1分数,相比强基线(使用SpeechCueLLM提取的语音描述进行微调)提升了1.84%和3.15%。消融实验表明,去除内部或句间语音变异性都会导致性能下降,证明两者互补。在零样本场景下,加入语音变异性信息也能提升多个LLM的性能。 实际意义:为多模态大语言模型如何有效整合非文本模态的结构化信息提供了新思路,有望提升人机交互中的情感理解能力。 主要局限性:语音特征提取依赖外部大模型,引入额外计算开销和潜在误差;图结构依赖预训练的话语解析模型,其准确性会影响最终效果;论文未公开代码,且损失函数等细节缺失。 🏗️ 模型架构 ...

2026-04-29

Multimodal LLMs as Expert Speech Annotators: Acoustic Macro-Descriptors for Parkinson's Detection

📄 Multimodal LLMs as Expert Speech Annotators: Acoustic Macro-Descriptors for Parkinson’s Detection #语音生物标志物 #多模态模型 #音频大模型 #零样本 #数据集 ✅ 6.5/10 | 前50% | #语音生物标志物 | #多模态模型 | #音频大模型 #零样本 学术质量 4.5/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:David Ortiz-Perez(阿利坎特大学计算机技术系,INESC-ID) 通讯作者:Catarina Botelho(INESC-ID, 当前就职于Sword Health) 作者列表:David Ortiz-Perez(阿利坎特大学计算机技术系,INESC-ID)、Catarina Botelho(INESC-ID, 当前就职于Sword Health)、Anna Pompili(INESC-ID)、Alberto Abad(里斯本高等技术学院,INESC-ID)、Jose Garcia-Rodriguez(阿利坎特大学计算机技术系) 💡 毒舌点评 亮点:论文提出了“声学宏观描述符”这一可解释的中间层概念,巧妙地将MLLM的输出从不稳定的直接诊断转化为结构化的专家模拟评分,并证明了这种“模拟专家”的方式在PD分类上甚至可以超越真实专家标注的性能(Ultravox模型80.47% UAR vs 专家78.93% UAR)。 短板:研究主要局限在两种西班牙语数据集上,对于模型在其他语言、方言及不同语音任务上的泛化能力未做验证;且对模型为何能产生有效但“不像”专家的描述符(如Ultravox)缺乏深入的机制分析。 📌 核心摘要 问题:帕金森病(PD)的语音评估依赖专家,具有主观性且难以扩展;直接用多模态大语言模型(MLLM)进行疾病诊断则不稳定且缺乏可解释性。 方法核心:提出将MLLM作为“专家语音标注员”,通过精心设计的提示,引导模型直接从语音中输出14个高阶、可解释的“声学宏观描述符”(对应GRBAS和VAF专家评估维度),再将这些描述符作为特征输入传统机器学习分类器进行PD检测。 创新点:与直接诊断或使用低阶声学特征的方法不同,本文创新性地利用MLLM模拟临床专家的感知评估流程,生成语义明确的特征,增强了可解释性,并探索了不同MLLM在该任务上的能力差异。 主要实验结果:在NeuroVoz数据集上,GPT-4o与专家评分的一致性最高(Gwet‘s AC1 = 0.643)。然而,在PD分类任务中,Ultravox模型提取的描述符取得了最佳性能,达到80.47%的UAR(加权平均召回率),超过了使用真实专家标注(最高78.93%)。跨数据集(PC-GITA)评估显示,Ultravox提取的描述符仍保持了较好的鲁棒性。 模型 GRBAS UAR (%) VAF UAR (%) All UAR (%) 人类专家 62.86 78.93 77.02 Ultravox 78.24 79.56 80.47 GPT-4o 71.15 71.90 71.14 Phi-4 57.47 63.99 72.71 实际意义:提供了一种可扩展、可解释的语音生物标志物提取范式,有望辅助临床筛查,并推动语音在神经退行性疾病诊断中的应用。 主要局限性:研究语种单一(西班牙语);评估的语音任务有限(主要是句子朗读);模型作为“黑盒”标注员的内在机制未被充分探究;未与当前最先进的端到端PD检测模型进行直接对比。 🏗️ 模型架构 本文的核心是利用现成的多模态大语言模型(MLLM) 作为“感知评估专家”,其本身并非提出新的网络架构。整体流程可分为两个阶段: ...

2026-04-29

PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Models

📄 PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Models #语音对话系统 #语音大模型 #语音克隆 #零样本 🔥 8.5/10 | 前25% | #语音对话系统 | #语音大模型 | #语音克隆 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Rajarshi Roy (NVIDIA) 通讯作者:未说明 作者列表:Rajarshi Roy (NVIDIA), Jonathan Raiman (NVIDIA), Sang-gil Lee (NVIDIA), Teodor-Dumitru Ene (NVIDIA), Robert Kirby (NVIDIA), Sungwon Kim (NVIDIA), Jaehyeon Kim (NVIDIA), Bryan Catanzaro (NVIDIA) 💡 毒舌点评 亮点:这是首个在全双工语音对话模型中实现实用级零样本语音克隆和细粒度角色控制的开源工作,其提出的Service-Duplex-Bench为评估此类系统提供了更贴近真实应用的标尺。短板:模型的全部能力均基于大规模合成数据训练,虽然实验验证了有效性,但其在复杂、真实世界交互中的泛化能力和“涌现”行为尚待检验;且合成对话是否覆盖了足够多样的真实交互模式,文中未做深入讨论。 ...

2026-04-29