Cross-Lingual Alzheimer’s Disease Detection with Multimodal LLMs via Speech Cue-Augmented Prompting and Instruction Tuning

📄 Cross-Lingual Alzheimer’s Disease Detection with Multimodal LLMs via Speech Cue-Augmented Prompting and Instruction Tuning #语音生物标志物 #语音大模型 #多语言 #零样本学习 #指令微调 ✅ 6.5/10 | 前25% | #语音生物标志物 | #语音大模型 | #多语言 #零样本学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Yin-Long Liu(中国科学技术大学国家语音及语言信息处理工程研究中心、语言科学交叉研究中心) 通讯作者:Jiahong Yuan(中国科学技术大学国家语音及语言信息处理工程研究中心、语言科学交叉研究中心) 作者列表: Yin-Long Liu(中国科学技术大学国家语音及语言信息处理工程研究中心、语言科学交叉研究中心) Yuanchao Li(爱丁堡大学语音技术研究中心) Yuang Chen(中国科学技术大学语言科学交叉研究中心) Liu He(中国科学技术大学语言科学交叉研究中心) Rui Feng(中国科学技术大学国家语音及语言信息处理工程研究中心、语言科学交叉研究中心) Jiaxin Chen(中国科学技术大学国家语音及语言信息处理工程研究中心、语言科学交叉研究中心) Jiahong Yuan(中国科学技术大学国家语音及语言信息处理工程研究中心、语言科学交叉研究中心) 💡 毒舌点评 亮点:论文首次系统性地探索了多模态大语言模型在跨语言AD检测中的应用,并提出了“语音线索增强提示”(SCAP)这一巧妙方法,将领域专家知识转化为结构化提示,在零样本设置下取得了与监督模型可比甚至更优的效果,展现了大模型的潜力。短板:SCAP的核心(特征提取与离散化)仍依赖传统的信号处理和手工规则(如填充停顿率的定义、ASR模型的微调),本质上是将“硬编码”的领域知识注入大模型,而非让模型自主学习发现新的跨语言生物标志物,这在一定程度上限制了方法的创新深度和向新语言/任务迁移的彻底性。 📌 核心摘要 要解决什么问题:传统监督学习的AD语音检测模型跨语言、跨数据集泛化能力差,且依赖大量标注数据。本文旨在探索利用多模态大语言模型(MLLM)的零样本和少样本能力,实现鲁棒的跨语言AD检测。 方法核心是什么:提出了一种语音线索增强提示(SCAP) 方法。该方法首先自动提取与AD相关的四类语音线索(语音时序特征、填充停顿率、ASR错误分布、声学特征),然后利用训练集数据分布将其离散化为“低/中/高”的自然语言描述,并将其预置到提示词中,以增强MLLM对说话者认知状态的理解。在此基础上,结合指令微调(通过LoRA)进一步优化模型。 与已有方法相比新在哪里: 范式创新:首次系统评估MLLM(MiDashengLM, Qwen2-Audio, Qwen2.5-Omni)在跨语言AD检测上的零样本性能。 提示工程创新:设计并比较了四种提示策略,发现结合上下文和思维链的“Contextual-CoT”提示最有效。核心创新是提出SCAP,将专家知识编码为提示。 轻量适配:通过LoRA进行指令微调,在保持大部分参数冻结的情况下,显著提升性能和泛化性。 主要实验结果如何: 零样本:SCAP显著提升了所有MLLM在所有数据集上的性能。其中,Qwen2.5-Omni + SCAP + Contextual-CoT 在ADReSS、PROCESS、iFLYTEK三个数据集上的准确率分别达到 66.67%、62.50%、71.62%,超越了部分监督基线(如eGeMAPS+Naive Bayes)。 指令微调:在单个数据集(如ADReSS)上微调后,模型在域内(ID)和跨域(OOD) 测试集上均表现优异。例如,Qwen2.5-Omni + SCAP在ADReSS上微调后,在ADReSS(ID)、PROCESS、iFLYTEK(OOD)上的准确率分别为 83.33%、67.50%、72.97%,全面超越最强监督基线(Whisper+MLP)。 关键数据表格:论文提供了详细的零样本(表3)和指令微调(表4)结果对比表格,展示了不同模型、不同提示策略、有无SCAP、不同训练源数据集下的性能。 实际意义是什么:证明了经过精心设计的提示和轻量微调,通用MLLM可以被转化为强大、鲁棒且语言无关的AD检测工具,为资源有限或跨语言医疗AI应用提供了新思路。 主要局限性是什么:SCAP方法依赖预先定义的特征和手动设计的阈值进行离散化,这本质上是将传统特征工程与大模型结合,而非纯粹的端到端学习。此外,评估使用的数据集规模相对较小,且部分为私有数据,可能影响结论的普遍性。 🏗️ 模型架构 论文采用的架构是典型的“音频编码器 + 适配器 + 大语言模型”多模态框架,如图1所示。 ...

2026-04-29

Semantic-Guided Pseudo-Feature Attention Network for Audio-Visual Zero-Shot Learning

📄 Semantic-Guided Pseudo-Feature Attention Network for Audio-Visual Zero-Shot Learning #音频分类 #零样本学习 #多模态模型 #对比学习 #音视频 ✅ 7.0/10 | 前25% | #音频分类 #零样本学习 | #多模态模型 #对比学习 | #音频分类 #零样本学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Siteng Ma(苏州大学) 通讯作者:Wenrui Li(哈尔滨工业大学) 作者列表:Siteng Ma(苏州大学)、Wenrui Li(哈尔滨工业大学)、Haocheng Tang(北京大学)、Yeyu Chai(哈尔滨工业大学)、Jisheng Chu(哈尔滨工业大学)、Xingtao Wang(哈尔滨工业大学) 💡 毒舌点评 本文的亮点在于将自适应模态加权、语义引导的变分生成与语义对齐的对比学习巧妙融合,形成了一个逻辑自洽的统一框架来解决GZSL中的核心矛盾,并在两个基准数据集上取得了SOTA。然而,其短板在于对SVG模块中具体网络结构的描述较为简略,且未提供任何开源代码或详细的超参数搜索过程,使得完全复现该工作的细节变得困难。 📌 核心摘要 这篇论文旨在解决音频-视觉广义零样本学习(GZSL)中因模态竞争和类间分布重叠导致的对可见类过度偏置问题。核心方法是提出一个名为SGPAN的多模态框架,它集成了三个关键组件:1)自适应模态重加权(AMR),动态调整音频和视觉分支的损失权重以平衡学习;2)语义引导变分生成(SVG),利用文本语义条件化的VAE生成伪特征,以扩大类内覆盖并缓解类别混淆;3)语义对齐对比损失(SACL),在投影空间中对齐跨模态特征并扩大类间距。与已有方法相比,新在将特征生成、动态模态平衡与对比学习在同一个端到端框架内协同优化。实验表明,SGPAN在UCF-GZSL和VGGSound-GZSL数据集上的调和平均精度(HM)上取得了当时最优的结果。该工作的实际意义在于为开放世界下的多模态视频理解提供了一个更鲁棒的零样本识别方案。主要局限性包括模型性能对语义标签的质量以及batch统计量的依赖。 🏗️ 模型架构 模型的整体架构如图1所示。SGPAN是一个基于交叉注意力的多模态框架,其输入是来自预训练骨干网络的音频和视觉特征。 输入与跨模态特征融合:音频特征 x_a 和视觉特征 x_v 分别经过编码器得到初始嵌入 ϕ_a 和 ϕ_v。随后,这些嵌入通过一个基于Transformer的交叉注意力模块进行交互,捕捉互补信息,得到注意力输出 ϕ_att^a 和 ϕ_att^v。原始嵌入与注意力输出通过残差连接相加,并投影到共享语义空间,得到最终的模态表征 θ_a 和 θ_v。推理时,通过最近邻搜索将表征与类语义嵌入匹配进行预测。 语义引导变分生成(SVG):该模块旨在为每个类生成伪特征。对于类嵌入 w,首先通过一个投影层得到 ˆw,然后经过语义引导门控注意力模块(SGAM)进行精炼得到 ˜w。接着,对于每个模态(音频/视觉),一个条件VAE将 ˜w 映射为潜在分布 (μ_m, log σ²_m),并采样得到潜在变量 z_m。解码器 D_m 将 z_m 解码为伪特征 ˆx_m。引入受控噪声 δ 以增加生成多样性。 损失函数集成:模型的总损失由四部分组成:跨注意力损失 l_cr、自适应模态重加权损失 l_AMR、语义对齐对比损失 l_s 和生成损失 l_g。这些损失共同优化整个框架。 图1:SGPAN的整体结构图。展示了从输入特征提取、跨模态注意力融合、到三个核心模块(AMR、SVG、SACL)的集成,以及最终的预测过程。 ...

2026-04-29