A Robust KNN Approach for Multi-Class Laryngeal Disease Detection using MFCC Features

📄 A Robust KNN Approach for Multi-Class Laryngeal Disease Detection using MFCC Features #音频分类 #信号处理 #图神经网络 #医疗AI #鲁棒性 ✅ 7.5/10 | 前25% | #音频分类 | #信号处理 | #图神经网络 #医疗AI 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Pingping Wu(南京审计大学工程审计学院) 通讯作者:未说明 作者列表: Pingping Wu(南京审计大学工程审计学院) Weijie Gao(南京审计大学计算机科学学院) Haibing Chen(江苏省人民医院耳鼻喉科) 💡 毒舌点评 本文将图神经网络(GNN)引入传统的K近邻(KNN)分类框架,为病理语音特征建模提供了一个有趣的视角,这是其最亮眼的创新点。然而,论文对所提出图增强KNN中GNN的具体实现(如层数、聚合器类型、注意力机制)和关键超参数(如K值选择)的讨论严重不足,使得“图”这一核心概念的魔力显得有些“黑箱”,也给复现设置了不必要的障碍。此外,使用一个仅320例、未公开的临床数据集得出的结论,其泛化能力有待未来更大规模数据的验证。 📌 核心摘要 问题:喉部疾病(如癌症、息肉、结节、白斑)的早期无创检测对改善预后至关重要,而传统的内窥镜检查受限于设备和专家。现有研究多集中于简单的二分类,对多种疾病的精细分类探索不足。 方法核心:提出一种图增强的KNN框架。首先从语音信号中提取MFCC特征序列,然后为每个样本构建基于特征相似度的K近邻图,最后利用图神经网络(GNN)在图上进行信息聚合,学习更具判别性的表示,最终进行分类。 创新点:1) 首次将多种非癌症性喉部病变(息肉、结节、白斑)纳入统一的五分类框架进行研究;2) 将图神经网络与KNN结合,通过建模局部拓扑关系来增强传统距离度量的判别能力,这是对标准KNN分类器的一种结构性改进。 主要结果:在自建的320例患者数据集上,该方法在二分类(健康 vs 病变)任务中达到96%的准确率,在五分类(健康、癌症、息肉、结节、白斑)任务中达到88%的准确率,均优于包括CNN和传统KNN在内的基线模型。关键数据对比如下表所示: 模型 二分类准确率 五分类准确率 传统KNN 0.94 0.83 CNN 0.94 0.80 本文方法 (Ours) 0.96 0.88 实际意义:该研究验证了基于语音的、结合图结构的机器学习模型在非侵入式喉部疾病筛查中的潜力,为临床早期诊断提供了新的技术思路。 主要局限性:数据集规模较小(320例)且未公开,模型泛化性存疑;对图神经网络部分的实现细节描述不够深入,技术贡献的清晰度和可复现性有所折扣。 🏗️ 模型架构 本文提出的模型整体流程(如图1所示)可分为四个主要阶段: ...

2026-04-29

DGSDNet: Dual-Graph Spectral Diffusion Network for Incomplete Multimodal Emotion Recognition in Conversations

📄 DGSDNet: Dual-Graph Spectral Diffusion Network for Incomplete Multimodal Emotion Recognition in Conversations #语音情感识别 #扩散模型 #图神经网络 #多模态模型 #缺失模态补全 🔥 8.0/10 | 前25% | #语音情感识别 | #扩散模型 | #图神经网络 #多模态模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Mingjian Yang(电子科技大学,智能协同计算实验室) 通讯作者:Wen Yin(电子科技大学,智能协同计算实验室) 作者列表:Mingjian Yang(电子科技大学,智能协同计算实验室)、Yong Wang(电子科技大学,智能协同计算实验室)、Peng Liu(电子科技大学,智能协同计算实验室)、Wen Yin†(电子科技大学,智能协同计算实验室) 💡 毒舌点评 亮点: 精准抓住了现有方法在“保持对话图谱结构”与“对齐特征分布”之间的核心矛盾,并通过将扩散过程严格约束在谱空间(特征值扩散)来优雅地同时解决这两个问题,设计思路清晰且有理论依据。 短板: 门控谱分类(GSC)模块中的熵加权机制更像是一种启发式的不确定性融合,对于“说话人连续性”和“情感方差”等关键对话动态的显式建模略显不足,可能限制了其在更复杂交互场景下的性能天花板。 📌 核心摘要 要解决的问题: 现实对话场景中,模态(文本、音频、视觉)缺失导致多模态情感识别性能严重下降。现有基于图或扩散的方法存在“语义不连续”(破坏图结构或改变特征分布)和“静态融合”(固定权重无法适应动态变化)两大挑战。 方法核心: 提出DGSDNet框架,包含双谱扩散(DSD)模块和门控谱分类(GSC)模块。DSD将对话图谱(说话人图和时序图)分解为拓扑不变的特征向量和可扩散的特征值,并在特征值空间施加扩散过程以恢复缺失模态,从而同时保持图结构并生成分布对齐的特征。GSC模块基于节点特征的熵进行自适应门控,动态融合双图谱信息。 与已有方法相比新在哪里: 区别于直接在特征空间或邻接矩阵上扩散的方法,本工作首次将扩散过程严格限制在图谱的谱空间(对角特征值矩阵)上进行,理论上避免了扩散过程破坏图的局部拓扑。同时,提出了基于重建不确定性的动态门控融合机制,替代了传统的静态加权。 主要实验结果: 在IEMOCAP和CMU-MOSI两个基准数据集上,当模态缺失率从0.0到0.7变化时,DGSDNet的平均加权F1分数(WAF1)分别达到77.60% 和 79.7%,超过了所有对比的SOTA方法(如GCNet, SDR-GNN, DiCMoR)。消融实验证实了说话人图、时序图、双谱扩散和门控分类模块的有效性,移除DSD模块性能下降最显著。 实际意义: 提升了多模态对话系统在传感器故障、隐私限制等真实复杂环境下的情感理解鲁棒性,对智能客服、人机交互、心理健康监测等应用有潜在价值。 主要局限性: 1) 未处理异步多模态序列和更开放域的对话场景。2) 门控融合模块对对话动态的建模相对简单。3) 仅在两种标准数据集上验证,泛化性有待进一步考察。 🏗️ 模型架构 DGSDNet的架构(如图2所示)分为三个主要阶段: ...

2026-04-29

Dynamic Spectrogram Analysis with Local-Aware Graph Networks for Audio Anti-Spoofing

📄 Dynamic Spectrogram Analysis with Local-Aware Graph Networks for Audio Anti-Spoofing #音频深度伪造检测 #图神经网络 #自监督学习 #动态卷积 🔥 8.5/10 | 前10% | #音频深度伪造检测 | #图神经网络 | #自监督学习 #动态卷积 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yingdong Li(中山大学计算机学院) 通讯作者:Kun Zeng(中山大学计算机学院, zengkun2@mail.sysu.edu.cn) 作者列表:Yingdong Li(中山大学计算机学院)、Chengxin Chen(中国移动互联网公司,中国移动通信集团公司)、Dong Chen(中山大学计算机学院)、Nanli Zeng(中国移动互联网公司,中国移动通信集团公司)、Kun Zeng(中山大学计算机学院) 💡 毒舌点评 亮点在于将动态卷积与物理视角的多视图频谱分析相结合,并为强大的AASIST图网络框架增加了巧妙的局部信息聚合机制(LVM和SRM),技术融合顺畅且针对性强。短板是双分支前端(SSL + 频谱)不可避免地带来了计算开销,论文未对模型效率(如参数量、推理速度)进行分析或讨论,这在实际部署中可能是一个考量点。 📌 核心摘要 问题:针对日益多样的语音深度伪造技术,现有音频反欺骗方法在模型复杂度和鲁棒性之间难以取得平衡,且固定的特征提取方式难以自适应地捕获不同尺度的伪造痕迹。 方法核心:提出一个双分支前端与增强图网络后端相结合的模型。前端包含自监督(SSL)分支和新设计的频谱分析分支。频谱分支采用“对称性引导内核选择(SKS)”块,通过物理视角(时间/频谱对称性)分析生成上下文图,动态加权不同尺度的卷积核。后端在AASIST框架上新增了“局部变化主节点(LVM)”和“稀疏残差主节点(SRM)”,以建模精细的局部伪造模式。 创新点:(i) 利用频谱对称性指导动态卷积,自适应捕获多尺度伪造伪影;(ii) 采用残差式快捷连接简化前端特征融合,无需复杂融合模块;(iii) 增强图神经网络后端,引入LVM和SRM节点以聚合局部判别信息。 实验结果:在ASVspoof 2019 LA和中文伪造语音数据集(CFSD)上取得了当前最优性能,EER分别为0.08%和0.10%,min t-DCF为0.0024。消融实验证实了每个提出组件的有效性。 实际意义:该模型能有效、鲁棒地检测合成与伪造语音,可增强语音生物识别等系统的安全性,对抵御日益逼真的语音伪造攻击具有重要价值。 主要局限性:未分析模型的计算效率(参数量、FLOPs、推理延迟),可能限制其在资源受限场景的应用;双分支架构对SSL预训练模型的依赖性较强。 🏗️ 模型架构 模型整体架构为双分支前端 + 增强图网络后端,具体流程如下: ...

2026-04-29

Few-Shot Recognition of Audio Deepfake Generators using Graph-Based Prototype Adaptation

📄 Few-Shot Recognition of Audio Deepfake Generators using Graph-Based Prototype Adaptation #音频深度伪造检测 #少样本学习 #图神经网络 #音频取证 ✅ 7.5/10 | 前25% | #音频深度伪造检测 | #图神经网络 | #少样本学习 #音频取证 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yupeng Tan (广西大学计算机、电子信息学院,广西人工智能学院) 通讯作者:Wei Xie (广西大学计算机、电子信息学院,广西人工智能学院) 作者列表:Yupeng Tan (广西大学计算机、电子信息学院,广西人工智能学院),Wei Xie (广西大学计算机、电子信息学院,广西人工智能学院) 💡 毒舌点评 本文巧妙地将图神经网络与转导学习范式结合,用于解决少样本音频深度伪造生成器识别中因数据稀缺导致的原型估计偏差问题,技术路线完整且实验结果显著优于基线。然而,其核心思想——利用无标签数据(查询集)的结构信息来优化有标签数据的原型表示——在少样本学习领域并非首创(如标签传播等),创新深度有限,且论文未提供任何开源代码或模型权重,对后续研究的可复现性构成障碍。 📌 核心摘要 问题:在音频取证中,识别深伪造音频的具体生成器类型至关重要,但新兴生成器的有标签样本极少,传统少样本方法因数据稀疏导致原型估计偏差大、特征区分度低。 方法:提出基于图的原型适应框架。在每个少样本任务中,将支持集和查询集样本构建成一个联合图(基于样本间距离的稀疏连接),通过图适应模块进行信息传播和特征精炼,再估计更可靠的原型进行分类。 创新:1)采用转导学习范式,联合利用有标签和支持样本构建任务特定图;2)设计图适应模块,通过图卷积网络精炼特征并校准原型,缓解原型偏差;3)在元测试阶段引入对比损失进行自适应。 实验:在ASVspoof2019 LA和MLAAD数据集上的5-way设置中,GPA方法在所有shot数下均取得最优准确率,例如在ASV2019LA上5-shot相比最强基线提升3.17%,10-shot提升6.12%,20-shot提升8.28%。消融实验验证了各组件的必要性。 意义:为应对新出现的音频深伪造威胁提供了一种有效的少样本识别方案,增强了音频取证系统对未知生成器的适应能力。 局限性:方法依赖预训练的CLAP编码器和特定的图构建策略,计算复杂度随样本数增加;实验仅在两个数据集上进行,对更多样化生成器和真实场景的泛化能力有待验证。 🏗️ 模型架构 模型架构图如图2所示。 整体流程:对于一个N-way K-shot任务,输入是包含N×K个有标签样本的支持集S和N×M个无标签样本的查询集Q。所有音频样本首先通过预训练的CLAP音频编码器转换为d维嵌入向量。这些嵌入(支持集和查询集)被组织成一个联合图,其中节点是单个样本,边表示样本间的相似性。该图输入到图适应模块中进行处理。经过GAM精炼后,从属于各类的支持节点嵌入中计算出类原型(各类嵌入的均值)。最后,每个查询节点根据其与各类原型的欧氏距离进行分类。 主要组件: 预训练CLAP编码器:作为特征提取器,将原始音频转换为语义嵌入空间中的向量。 联合图构建模块:为每个任务动态构建图。节点对应所有样本(支持+查询)。边的建立遵循四条规则:同类支持节点间连接;每个支持节点连接其在查询集中的top-k最近邻;查询节点间连接top-k最近邻;所有节点添加自环。边权重为节点间欧氏距离的倒数。这种稀疏连接策略(复杂度O(kn))保留了关键结构,同时降低了计算量。 图适应模块:核心组件,由两层图卷积网络和一个残差连接构成。其作用是通过图上的消息传递,融合来自支持集和查询集的结构信息,精炼每个节点的嵌入表示,从而生成更鲁棒、更具区分性的特征,用于后续原型估计。处理后,对支持节点还会施加一个轻量级线性分类器进行显式监督(focal loss)。 原型估计与分类:从精炼后的支持节点嵌入中,为每个类别计算一个原型(均值向量)。查询节点通过计算到这些原型的距离进行分类。 数据流与交互:CLAP输出的原始嵌入 -> 构建联合图邻接矩阵 -> GAM通过两层GCN在图上传播信息并更新节点嵌入 -> 从精炼后的支持节点嵌入计算原型 -> 查询节点与原型距离计算分类概率。整个框架采用元学习训练范式。 ...

2026-04-29

Graph-Based Emotion Consensus Perception Learning for Multimodal Emotion Recognition in Conversation

📄 Graph-Based Emotion Consensus Perception Learning for Multimodal Emotion Recognition in Conversation #多模态情感识别 #图神经网络 #对比学习 #会话理解 #情感计算 ✅ 7.5/10 | 前25% | #多模态情感识别 | #图神经网络 | #对比学习 #会话理解 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Huan Zhao (论文中作者列表首位,但未明确标注“第一作者”,因此按惯例推断) 通讯作者:Yingxue Gao (论文明确标注“*Corresponding authors: Y. Gao”) 作者列表:Huan Zhao (湖南大学计算机科学与电子工程学院)、Gong Chen (湖南大学计算机科学与电子工程学院)、Zhijie Yu (湖南大学计算机科学与电子工程学院)、Yingxue Gao* (湖南大学计算机科学与电子工程学院) 💡 毒舌点评 该论文的亮点在于其“共识感知学习模块”设计得相当精巧,通过原型学习和说话人对比损失双管齐下,直击多模态情感识别中“模态冲突”这一核心痛点,理论动机清晰且有效。短板在于其创新更多是增量式的改进而非范式突破,且“共识原型”的学习本质上还是依赖于有监督的类别标签,对于完全未知的、细粒度的或混合情感表达,其泛化能力有待进一步验证。 📌 核心摘要 要解决的问题:现有对话多模态情感识别(MERC)方法常忽略同一情感类别在不同模态(如声音、语言、表情)下所体现的“情感共识”,导致模态间冲突信号影响识别精度,且难以处理类别混淆和样本不均衡问题。 方法核心:提出图基情感共识感知(GECP)框架。其核心是共识感知学习(CAL)模块,包含两阶段:1) 构建多模态传播图以捕获跨模态共享信号与特有差异;2) 通过情感共识学习单元将各模态信号与共同的“情感原型”对齐,提炼类别本质特征。 与已有方法相比新在何处:不同于以往主要关注上下文依赖或简单融合的方法,GECP显式地建模并学习了类别级的情感共识原型,并通过引入说话人引导的对比学习损失,在对齐跨模态语义的同时,保留了个体表达的多样性。 主要实验结果:在IEMOCAP和MELD数据集上,GECP均取得了最佳性能。 IEMOCAP:Weighted-F1 72.85%, Accuracy 72.91%, 较之前最优模型(Frame-SCN)分别提升约1.85%和1.93%。 MELD:Weighted-F1 66.96%, Accuracy 68.08%, 较之前最优模型(FrameERC)分别提升约0.33%和0.46%。消融实验证明,移除CA单元或任一损失函数(Lc, LSpk)都会导致性能下降,其中移除CA单元下降最明显。 实际意义:提升了机器在复杂对话场景中理解人类情感的能力,尤其在处理情感类别易混淆和样本分布不平衡的情况下更为有效,可直接应用于提升智能客服、社交机器人等系统的交互体验。 主要局限性:论文中未深入讨论。潜在局限可能包括:对动态演变的情感共识建模不足(未来工作已提及)、模型复杂度较高、以及在跨文化、跨语言场景下的泛化能力未被验证。 🏗️ 模型架构 图1展示了GECP的总体架构,其处理流程如下: ...

2026-04-29

Graph-Biased EEG Transformers for Silent Speech Decoding

📄 Graph-Biased EEG Transformers for Silent Speech Decoding #语音生物标志物 #预训练 #图神经网络 #脑机接口 #小样本学习 ✅ 6.5/10 | 前25% | #语音生物标志物 | #预训练 | #图神经网络 #脑机接口 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 -1.0 | 置信度 中 👥 作者与机构 第一作者:Saravanakumar Duraisamy(University of Luxembourg) 通讯作者:Luis A. Leiva(University of Luxembourg) 作者列表:Saravanakumar Duraisamy(University of Luxembourg), Eug´enie J. M. Delaunay(University of Luxembourg), Luis A. Leiva(University of Luxembourg) 💡 毒舌点评 亮点:论文精准地指出了当前EEG Transformer在静默语音解码任务上“水土不服”的关键原因——缺乏对EEG电极物理布局和频段特异性的先验建模,并提出了一个即插即用的图偏置模块(Graphormer++)来优雅地解决这个问题,思路清晰且有神经科学依据。短板:受试者内解码准确率仅从20%的瞎猜水平提升至约29%,绝对值仍较低;更致命的是,该方法完全无法解决跨受试者泛化的难题(仍为20%),且论文未开源代码,极大限制了其作为可复现基准的价值。 📌 核心摘要 要解决什么问题:预训练的EEG Transformer(如EEGPT, LaBraM)在应用于静默语音解码任务时,即使经过微调,性能也接近随机猜测(~20%)。根本原因是模型分词方式无法保持电极身份和跨电极关系,导致表示不匹配。 方法核心是什么:提出Graphormer++,一个可插入任何预训练EEG Transformer编码器的模块。它首先将编码器的patch token按电极进行池化对齐,然后构建一个偏置张量,包含基于电极空间邻近度和四个频段(θ, α, β, γ)的相位锁定值(PLV)的先验知识。该偏置被用于调整Graphormer层中注意力头的得分,引导模型关注具有生理合理性的电极交互。 与已有方法相比新在哪里:不同于直接微调或简单添加分类头,该方法显式地将EEG的拓扑结构(空间)和功能连接(频段同步性)作为归纳偏置注入Transformer的注意力机制,实现了对预训练模型的结构化适配。 主要实验结果如何:在两个公开的静默语音数据集上,Graphormer++在受试者内设置下,将基于EEGPT骨干的平均分类准确率从微调后的约22%提升至约29.4%。在受试者间设置下,所有方法性能均停留在随机水平(~20%)。注意力图分析显示,该方法使模型更关注与语音相关的额叶、中央和颞区。关键实验结果表格如下: 表2. Graphormer++在不同骨干和设置下的准确率(%) ...

2026-04-29

Grey-Box Prompt Tuning With Graph Alignment for Speech-Language Models

📄 Grey-Box Prompt Tuning With Graph Alignment for Speech-Language Models #语音识别 #图神经网络 #提示调优 #语音大模型 🔥 8.0/10 | 前25% | #语音识别 | #图神经网络 | #提示调优 #语音大模型 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Yuhang Lu(广西师范大学,教育区块链与智能技术重点实验室) 通讯作者:Li-e Wang*(广西师范大学,教育区块链与智能技术重点实验室);Linghui Meng†(东南大学,计算机科学与工程学院) 作者列表:Yuhang Lu(广西师范大学,教育区块链与智能技术重点实验室)、Li-e Wang*(广西师范大学,教育区块链与智能技术重点实验室)、Xianxian Li(广西师范大学,教育区块链与智能技术重点实验室)、Feng Yu(广西师范大学,教育区块链与智能技术重点实验室)、Linghui Meng†(东南大学,计算机科学与工程学院) 💡 毒舌点评 这篇论文的亮点在于其精巧的系统设计,将图神经网络用于声学-文本的细粒度对齐,并辅以复杂的无梯度优化策略,展现了扎实的工程创新和在“灰色盒”这一受限场景下解决实际问题的能力。但其优化策略(三重损失、Dirichlet先验、CMA-ES)的复杂度较高,且论文未提供任何开源代码,对于想快速复现或验证其优越性的读者而言,这无疑是一道高墙,使得漂亮的实验结果略显“空中楼阁”。 📌 核心摘要 本文旨在解决语音-语言模型(SLM)在灰色盒场景下(即模型参数冻结,仅有有限接口可注入提示)适配下游任务时面临的两大挑战:无梯度提示调优的低效不稳定,以及声学-文本对齐不足。为此,作者提出了一个轻量级的提示调优框架,其核心包含两个阶段:1) 图引导的跨模态对齐:利用图注意力网络(GAT)在联合表征空间中构建一个异构图,将声学节点和文本节点通过注意力边动态连接与聚合,实现鲁棒的跨模态对齐与融合,并通过一个对齐损失(公式10)进行监督。2) 渐进式无梯度优化策略:设计了一个两阶段优化目标(公式11),结合任务交叉熵、温度缩放蒸馏(公式12)和自适应高置信度一致性约束(公式14),并利用Dirichlet先验自适应调整各项权重,以稳定地优化提示。提示本身通过CMA-ES在低维子空间中联合生成声学和文本前缀。实验在LLaSO语料库的子集上进行,涉及语音识别(ASR)和多个副语言任务。结果显示,本方法在灰色盒约束下取得了优异性能(例如,ASR的WER为0.09,优于部分主流模型),同时在达到目标WER=0.15时,其时间-计算-内存开销优于基于强化学习的提示调优方法(RL-Prompt),并接近参数高效微调方法LoRA。消融实验证明了图对齐模块能有效提升语义级任务(如NER)的性能。本文的实际意义在于提供了一种在不修改主干参数的前提下,低成本、高效率适配语音-大语言模型的新范式。主要局限性在于优化策略的复杂性,以及论文未开源代码和详细复现信息。 🏗️ 模型架构 本文提出的“Grey-Box Prompt Tuning with Graph Alignment”框架旨在冻结的语音-语言模型(如Llama)中注入可学习的提示,以实现下游任务适配。其整体架构可分为图引导的跨模态对齐阶段和提示调优阶段。 图引导的跨模态对齐阶段 (Graph-guided Cross-modal Alignment Stage) 这一阶段的核心是构建一个连接声学和文本模态的异构图,并通过图神经网络进行信息聚合。 输入:一段语音波形及其对应的ASR转录文本。 节点初始化与表征: 声学节点:使用预训练的HuBERT编码语音得到帧级声学序列 S,再通过双向GRU获取上下文表征 si。随后,通过注意力池化进行下采样,得到固定数量的声学节点 xa_i。最后,通过线性投影 Wa 映射到共享语义空间,得到节点特征 za_i。 文本节点:使用文本编码器(未具体说明,可能是BERT类)对ASR文本编码得到词/子词嵌入 T,同样通过双向GRU和注意力池化下采样,再由线性投影 Wt 映射到共享空间,得到文本节点特征 zt_j。 边构建:采用二分图设计。计算声学节点到文本节点(sa->t_ij)和文本节点到声学节点(st->a_ji)的双向注意力分数,并进行softmax归一化和Top-K稀疏化,形成跨模态边。同时,添加自环(Aa->a, At->t)以保留节点自身信息。 图聚合:将跨模态边和自环边合并并归一化得到传播算子 Ã。通过标准的消息传递公式 H(l+1) = σ(Ã H(l) Wl) (公式9) 进行多层图卷积(论文中使用2层GAT),使得每个节点能聚合来自自身、模态内邻居和对齐的跨模态邻居的信息,实现细粒度融合。 对齐监督:引入对称化邻接矩阵作为对齐强度,定义几何正则化损失 Lalign (公式10),鼓励强连接的跨模态片段在表征空间中靠近。 提示调优阶段 (Prompt-tuning Stage) 这一阶段的目标是优化注入模型的提示(Prompt),以在灰色盒场景下稳定适配任务。 提示生成:采用联合声学-文本提示生成。为每个模态(声学/文本)分别学习一个前缀提示(Pa, Pt)。这些提示通过CMA-ES(协方差矩阵自适应进化策略)在一个低维内在子空间中优化,而非直接通过梯度下降。具体而言,一个软提示 z 从图聚合的均值初始化,然后通过可学习矩阵 W 投影到LLM的令牌空间:p = Wz。 渐进式两阶段优化:为解决无梯度优化不稳定问题,设计了统一目标 Ltotal(e) (公式11),它包含三项: 任务交叉熵 LCE:标准的监督信号。 温度缩放蒸馏 Ldist (公式12):让学生模型(带提示)的输出分布与教师模型(无提示)的分布对齐。温度 τ(e) 从高到低退火,初期允许宽松匹配,后期趋于严格。 自适应高置信度一致性 Lcons (公式14):仅在教师模型预测置信度超过动态阈值 θ(e) 的位置上,强制学生模型的logits与教师模型接近。 权重自适应:三项损失的权重 w(e) 服从Dirichlet先验 (公式15),根据各损失项大小自适应调整,减少手动调参。 输出:优化后的提示 P' = (Pa, Pt) 与冻结的语音和文本编码器、大语言模型一起,构成最终模型,用于下游任务。 架构图说明: 论文中提供了框架的整体示意图(图1,对应提供的图片列表中的图片)。 图1展示了完整的处理流程。左侧,语音经过“Speech Encoder”(如HuBERT)得到声学特征,文本经过“Text Prompt”模块。这些特征和提示一同输入到“GAT”模块进行跨模态对齐与融合。对齐后的声学特征(ZA)和文本特征(ZT)与各自的可学习提示(PA, PT)结合,通过“Cross Attention”等方式注入到冻结的“LLM”中。右下角展示了“Two-stage Optimization”的过程,包括无提示基线(“w/o prompts”)产生的教师分布和带提示模型(“w/ prompts”)产生的学生分布,通过计算KL散度等进行优化。顶部展示了联合提示生成的概念,声学和文本提示被共同优化。整个流程强调在“Grey-box slot”中操作,不修改主干参数(“Frozen”)。 ...

2026-04-29

GRNet: Graph Reconstruction Network for Robust Multimodal Sentiment Analysis

📄 GRNet: Graph Reconstruction Network for Robust Multimodal Sentiment Analysis #多模态情感分析 #图神经网络 #鲁棒性 #缺失模态学习 #多任务学习 ✅ 7.5/10 | 前25% | #多模态情感分析 | #图神经网络 | #鲁棒性 #缺失模态学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Zhaopan Xu (哈尔滨工业大学) 通讯作者:Hongxun Yao (哈尔滨工业大学) 作者列表:Zhaopan Xu(哈尔滨工业大学)、Lulu Tian(未提供具体机构,邮箱为个人邮箱)、Panpan Zhang(新加坡国立大学 NUS)、Xiaojiang Peng(深圳技术大学)、Hongxun Yao(哈尔滨工业大学) 💡 毒舌点评 本文清晰地指出了现有多模态情感分析方法在“重建”缺失信息时忽略了数据内在的时序与跨模态对齐关系,并针对性地提出了两个基于图的模块(TGN/NGN),逻辑自洽且在实验中取得了全面的SOTA,证明其思路有效。不足之处在于,其“图重建”方法仍依赖于启发式设计的图结构(时序边、邻域窗口),这种强假设在更复杂、动态的真实场景下是否依然稳健有待验证,且模型整体框架虽优雅但并未带来根本性的范式变革。 📌 核心摘要 问题:现实世界中的多模态情感分析常面临模态数据不完整(如文本、音频、视觉信息缺失)的挑战,而现有方法在重建缺失特征时未能充分利用数据固有的时间关系和跨模态对齐关系。 方法核心:提出图重建网络(GRNet),利用两个基于关系图卷积网络(R-GCN)的模块进行重建:(1) 时间图神经网络(TGN) 将多模态序列拼接后建模时间依赖关系;(2) 邻居图神经网络(NGN) 将每个模态在每个时间步作为独立节点,建模固定窗口内的跨模态邻居对齐关系。同时,采用多路径分类策略,联合优化单模态分类器和最终分类器以增强鲁棒性。 新意:与先前独立重建各模态特征的方法不同,GRNet显式地利用图结构对多模态序列的时序上下文和跨模态同步关系进行联合建模与重建,从而获得更符合数据内在规律的恢复特征。 主要结果:在三个基准数据集(MOSI、MOSEI、SIMS)上,GRNet在二分类准确率(Acc-2)、F1分数、平均绝对误差(MAE)和相关性(Corr)等指标上全面超越了包括P-RMF、LNLN在内的最新方法。例如,在MOSI数据集上,GRNet的Acc-2为73.45%,F1为73.68%,MAE为1.026,均优于次优方法P-RMF的72.81%、72.93%、1.038。消融实验证明移除TGN或NGN均会导致性能下降。 实际意义:为处理现实世界中不可避免的数据缺失问题提供了一种更鲁棒的解决方案,增强了多模态情感分析系统在噪声和干扰下的可靠性,推动了MSA技术向实际应用落地。 主要局限性:邻居图神经网络(NGN)依赖于预设的固定窗口大小w,这可能限制了其适应不同场景下动态跨模态对齐关系的能力;论文未探讨该方法在更极端或非随机缺失模式下的表现。 🏗️ 模型架构 模型(GRNet)的整体流程如图2所示,包含三个主要阶段: 特征提取与不完整数据模拟: ...

2026-04-29

Modeling Both Intra- And Inter-Utterance Variability for Conversational Emotion Recognition

📄 Modeling Both Intra- And Inter-Utterance Variability for Conversational Emotion Recognition #语音情感识别 #图神经网络 #大语言模型 #多模态模型 #零样本 ✅ 6.5/10 | 前25% | #语音情感识别 | #图神经网络 | #大语言模型 #多模态模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yumeng Fu(哈尔滨工业大学计算机科学与技术学院) 通讯作者:Bingquan Liu(哈尔滨工业大学计算机科学与技术学院) 作者列表:Yumeng Fu¹, Shouduo Shang¹, Junjie Wu², Meishan Zhang³, Bingquan Liu¹* ¹ 哈尔滨工业大学计算机科学与技术学院,哈尔滨,中国 ² 苏州大学计算机科学与技术学院,苏州,中国 ³ 哈尔滨工业大学计算机科学与技术学院,深圳,中国 💡 毒舌点评 亮点在于其将语音的“动态”信息(内部变异性和结构关系)显式编码为图,并设计适配器注入LLM,这比简单地将音频特征拼接或文本化要更精巧。短板是语音特征提取严重依赖另一个闭源或大型商用大模型(Qwen2-Audio),而非端到端学习,这在实用性和可复现性上打了折扣,且论文对提取的语音特征本身的准确性和鲁棒性缺乏验证。 📌 核心摘要 问题:现有基于LLM的对话情绪识别(ERC)方法主要关注文本,忽略了语音中丰富的声学特征(如音调、语速)以及对话本身的结构信息。 方法:提出多模态变异性学习网络(MM-VLN)。首先,利用一个大语言模型(Qwen2-Audio-7B-Instruct)提取每句话的内部语音变异性(音调、语速等)。其次,使用话语解析模型获取对话的句间依赖结构。然后,将语音变异性信息作为节点、对话结构作为边构建图,使用图注意力网络(GAT)进行编码。最后,通过一个跨注意力适配器将GAT的输出投影为“图令牌”,与文本嵌入拼接后输入LLM(Llama3-8B/Qwen2.5-7B)进行情绪预测。 创新点:首次将对话的语音结构信息(内部变异性和句间关系)通过图神经网络显式建模,并通过适配器无缝对接到LLM的表示空间,作为辅助任务增强情绪理解。 实验结果:在IEMOCAP和MELD两个数据集上,MM-VLN(使用Llama3-8B)分别达到了72.05%和70.58%的加权F1分数,相比强基线(使用SpeechCueLLM提取的语音描述进行微调)提升了1.84%和3.15%。消融实验表明,去除内部或句间语音变异性都会导致性能下降,证明两者互补。在零样本场景下,加入语音变异性信息也能提升多个LLM的性能。 实际意义:为多模态大语言模型如何有效整合非文本模态的结构化信息提供了新思路,有望提升人机交互中的情感理解能力。 主要局限性:语音特征提取依赖外部大模型,引入额外计算开销和潜在误差;图结构依赖预训练的话语解析模型,其准确性会影响最终效果;论文未公开代码,且损失函数等细节缺失。 🏗️ 模型架构 ...

2026-04-29

Modeling Inter-Segment Relationships in Speech for Dementia Detection with Audio Spectrogram Transformers and Graph Attention Networks

📄 Modeling Inter-Segment Relationships in Speech for Dementia Detection with Audio Spectrogram Transformers and Graph Attention Networks #语音生物标志物 #音频大模型 #图神经网络 #预训练 #音频分类 ✅ 7.0/10 | 前25% | #语音生物标志物 | #图神经网络 | #音频大模型 #预训练 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Raphael Anaadumba (University of Massachusetts Lowell, Richard A. Miner School of Computer and Information Sciences) 通讯作者:Raphael Anaadumba (根据“Corresponding author”标注) 作者列表:Raphael Anaadumba (University of Massachusetts Lowell), Nazim A. Belabbaci (University of Massachusetts Lowell), Anton Kovalev (University of Massachusetts Lowell), Mohammad Arif Ul Alam (University of Massachusetts Lowell) 💡 毒舌点评 本文巧妙地将图注意力网络引入语音病理分析,首次明确建模“语音段”间的图状关系以捕捉话语结构异常,这一视角确实比简单池化或纯序列模型更贴近临床认知,并在MCI检测上取得了亮眼提升。然而,实验规模局限于两个英语数据集,且未开源代码,使得这一新颖方法在更广泛场景下的有效性和可复现性大打折扣。 ...

2026-04-29