Audio-Text Jailbreak Attack on Large Audio-Language Models: Towards Generality and Stealthiness

📄 Audio-Text Jailbreak Attack on Large Audio-Language Models: Towards Generality and Stealthiness #音频安全 #对抗样本 #多模态模型 #跨模态 ✅ 7.0/10 | 前25% | #音频安全 | #对抗样本 | #多模态模型 #跨模态 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yuhong Li(太原工业大学工业互联网安全山西省重点实验室 & 计算机科学与技术学院) 通讯作者:Jianhua Wang(太原工业大学工业互联网安全山西省重点实验室 & 计算机科学与技术学院,邮箱:wangjianhua02@tyut.edu.cn) 作者列表:Yuhong Li(太原工业大学工业互联网安全山西省重点实验室 & 计算机科学与技术学院)、Jiabao Zhang(太原工业大学工业互联网安全山西省重点实验室 & 计算机科学与技术学院)、Yan Chen(太原工业大学计算机科学与技术学院)、Zhihui Zhao(太原工业大学工业互联网安全山西省重点实验室 & 计算机科学与技术学院)、Jianhua Wang(太原工业大学工业互联网安全山西省重点实验室 & 计算机科学与技术学院) 💡 毒舌点评 亮点在于首次开辟了“音频+文本”联合优化的多模态越狱攻击赛道,并在实验上取得了90%以上的攻击成功率,有力证明了当前LALM在多模态融合下的脆弱性,为安全研究提供了新方向。短板是论文对“隐身性”的论证略显单薄,仅通过提升成功率来间接证明,并未深入评估攻击音频在人类听觉或音频检测系统中的隐蔽程度,削弱了“Stealthiness”这一主张的力度。 📌 核心摘要 问题:现有的针对大型音频语言模型(LALM)的越狱攻击多局限于单模态(纯文本或纯音频),且通用性和隐蔽性不足。 方法核心:提出“音频-文本越狱攻击”(Audio-Text Jailbreak),首次联合优化微小的对抗音频扰动和恶意的文本后缀,共同诱导模型生成有害回应。同时设计了环境噪声添加和语速调整等隐身策略。 与已有方法相比新在哪里:a) 首次实现音频和文本模态的深度融合攻击;b) 设计的单个对抗音频/文本后缀可泛化应用于不同用户指令;c) 引入针对性的音频层隐身策略。 主要实验结果:在Qwen2-Audio和Qwen2.5-Omni两个模型上,攻击成功率(ASR)分别达到91.00% 和 92.73%,显著优于GCG、VoiceJailbreak、SpeechGuard等基线方法。关键实验结果如下表所示: 方法 非法活动 仇恨言论 人身伤害 欺诈 色情 隐私侵犯 平均 Base (无攻击) 0 0 0 0 0 0 0 GCG (文本攻击) 0.67 0.72 0.73 0.79 0.80 0.75 0.74 VoiceJailbreak 0 0.40 0.20 0.20 0.30 0 0.21 SpeechGuard 0.20 0.40 0.40 0.20 0.30 0 0.25 Audio-Text JailBreak (本文) 0.95 0.90 0.90 0.88 0.90 0.90 0.91 模型 Noise Rate Rate + Noise Ours Qwen2-Audio 84.00 83.30 86.61 91.00 Qwen2.5-Omni 82.50 85.65 73.91 92.73 平均 83.25 84.48 80.26 91.86 实际意义:揭示了当前LALM在处理跨模态输入时存在的严重安全漏洞,为模型安全加固(如多模态对齐安全训练)提供了明确的攻击测试基准和方向。 主要局限性:通用性验证实验仅在一个条件(K=10)下进行,泛化能力论证不够充分;隐身策略的实际效果(如是否易于被人耳察觉或被音频检测器识别)未通过直接的用户研究或客观度量进行评估。 🏗️ 模型架构 本文并未提出一个新的端到端语音大模型架构,而是针对现有的LALM(如Qwen2-Audio, Qwen2.5-Omni)设计了一个攻击框架。其核心是音频-文本联合越狱攻击流程。 ...

2026-04-29

AudioFuse: Unified Spectral-Temporal Learning Via A Hybrid VIT-1D CNN Architecture for Phonocardiogram Classification

📄 AudioFuse: Unified Spectral-Temporal Learning Via A Hybrid VIT-1D CNN Architecture for Phonocardiogram Classification #音频分类 #多模态模型 #混合架构 #医疗音频 #鲁棒性 ✅ 7.5/10 | 前25% | #音频分类 | #多模态模型 #混合架构 | #多模态模型 #混合架构 学术质量 7.5/7 | 选题价值 7.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Md. Saiful Bari Siddiqui(BRAC大学计算机科学与工程系) 通讯作者:未说明 作者列表:Md. Saiful Bari Siddiqui(BRAC大学计算机科学与工程系),Utsab Saha(BRAC大学计算机科学与工程系) 💡 毒舌点评 亮点:论文非常清晰地抓住了“心音分析中频谱与波形信息互补”这一核心矛盾,并设计了一个轻量级双分支架构来同时利用两者,实验也证实了该思路的有效性,尤其是在抵抗域偏移方面表现出色。 短板:所谓的“创新”更多是工程设计上的巧妙组合,后期融合策略(拼接)本身毫无新意,论文也未深入探讨更复杂融合机制(如跨注意力)在此场景下失效的原因,使其理论贡献稍显薄弱。 📌 核心摘要 问题:传统心音(PCG)分类方法要么使用2D频谱图(丢失相位和时间精度),要么使用1D波形(难以学习频率关系),二者各有局限。 方法:提出AudioFuse,一个轻量级双分支架构。一个分支是定制的“宽而浅”的Vision Transformer (ViT),用于从2D log-Mel频谱图中提取全局频谱特征;另一个分支是紧凑的1D CNN,用于从原始波形中提取精确的时序特征。两个分支提取的特征向量在最后通过拼接进行后期融合。 创新点:a) 针对PCG信号特性,设计了一个双分支、双模态的表示学习框架;b) 为平衡性能和过拟合风险,对ViT和CNN分支都进行了轻量化设计;c) 通过实验证明了简单拼接融合在该任务上优于更复杂的门控或交叉注意力融合。 实验结果:在PhysioNet 2016数据集上,AudioFuse(拼接融合)从头训练取得了0.8608的ROC-AUC,显著优于单模态基线(频谱图0.8066,波形0.8223)。在具有显著域偏移的PASCAL数据集上,AudioFuse(ROC-AUC 0.7181)的性能远优于频谱图基线(0.4873),展现了强大的泛化能力。具体结果见表1和表2。 ...

2026-04-29

AudioGen-Omni: A Unified Multimodal Diffusion Transformer for Video-Synchronized Audio, Speech, and Song Generation

📄 AudioGen-Omni: A Unified Multimodal Diffusion Transformer for Video-Synchronized Audio, Speech, and Song Generation #音频生成 #语音合成 #多模态模型 #扩散模型 #统一音频模型 ✅ 7.5/10 | 前25% | #音频生成 | #多模态模型 | #语音合成 #扩散模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Le Wang(中国矿业大学,徐州) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Le Wang(中国矿业大学)、Jun Wang(快手科技,Kling AI)、Chunyu Qiang(快手科技,Kling AI)、Feng Deng(快手科技,Kling AI)、Chen Zhang(快手科技,Kling AI)、Kun Gai(快手科技,Kling AI) 💡 毒舌点评 亮点:这篇论文的野心很大,试图用一个统一的“全家桶”模型解决视频到音频、语音、歌曲的生成,并且通过全面的实验确实做到了在多个任务上刷榜,证明了其架构设计的有效性。 短板:然而,论文对视频输入的强依赖像一根“拐杖”,限制了其在无视频场景下的应用,而号称的“统一”框架在代码和模型完全黑箱的情况下,其宣称的优越性和可复现性都要打上一个问号。 📌 核心摘要 解决的问题:现有视频到音频(包括音效、语音、音乐)的生成方法大多任务特定、模型碎片化,且跨模态(如唇音同步)对齐效果不佳,限制了通用性和生成质量。 方法核心:提出AudioGen-Omni,一个基于多模态扩散变换器(MM-DiT)的统一框架。其核心是引入了“歌词-转录编码器”,将音素/字素映射为帧级稠密表示;并设计了“相位对齐各向异性位置注入(PAAPI)”,在注意力机制中对视频、音频、转录文本等有时序结构的模态选择性地应用旋转位置编码,以实现精细的跨模态同步。 创新点:a) 首个能同时处理音频、语音、歌曲生成的统一多模态条件生成框架;b) 提出了无需音素时长监督的歌词转录编码模块;c) PAAPI机制增强了细粒度的时序对齐。与先前工作不同,它解冻了所有模态并采用掩码输入策略,增强了灵活性。 主要实验结果:在VGGSound音频生成测试集上,其FD指标(PaSST 58.77, PANNs 6.29)优于MMAudio等基线(见表1)。在LRS3/LRS2语音生成测试中,其UTMOS(3.982/3.842)和DNSMOS(3.782/3.767)得分甚至超过真实语音,WER也大幅降低(17.56%/17.75%)(见表2)。在说话人相似度(SECS)评估中,其GE2E和VoxSim分数均高于其他方法(见表3)。模型能在1.91秒内生成8秒音频。 实际意义:为多媒体内容创作提供了一个高效、高质量的统一音频生成工具,有望简化视频后期制作流程,增强虚拟人物、游戏、社交媒体的音频沉浸感。 主要局限性:模型依赖视频输入,当无视觉信息时应用受限;论文未开源代码和模型,限制了社区复现和二次开发;虽能生成歌曲,但对复杂音乐结构的控制能力未深入展示。 🏗️ 模型架构 AudioGen-Omni是一个端到端的多模态扩散变换器,旨在根据可选的视频和文本输入,生成同步的音频、语音或歌曲。 ...

2026-04-29

AVATAR: Audio-Visual Adaptive Fusion via Trained Agent Reinforcement for Multimodal Deepfake Detection

📄 AVATAR: Audio-Visual Adaptive Fusion via Trained Agent Reinforcement for Multimodal Deepfake Detection #音频深度伪造检测 #强化学习 #多模态模型 #鲁棒性 ✅ 7.5/10 | 前25% | #音频深度伪造检测 | #强化学习 | #多模态模型 #鲁棒性 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Ebad Shabbir(DSEU-OKHLA, New Delhi, India) 通讯作者:Jiechao Gao(Stanford University, Stanford, CA, USA) 作者列表:Ebad Shabbir(DSEU-OKHLA, New Delhi, India),Pushkar Arora(DSEU-OKHLA, New Delhi, India),Rakshita Saksaina(DSEU-OKHLA, New Delhi, India),Tiange Xie(Institute of Information Engineering, Chinese Academy of Sciences, Beijing, China),Jiechao Gao(Stanford University, Stanford, CA, USA) 💡 毒舌点评 本文巧妙地将强化学习(PPO)引入多模态融合权重的动态决策,思路新颖且在小规模实验上取得了令人瞩目的性能提升,证明了“让模型自己决定信哪个”的可行性。然而,其所有实验仅基于1000个片段的微小数据集进行,这就像在沙盘里赢得了一场战争,其结论能否推广到真实世界的海量、复杂数据洪流中,要打一个大大的问号,极大地限制了工作的说服力。 ...

2026-04-29

AVO-65: A Large-Scale Hierarchical Audio-Visual Object Dataset

📄 AVO-65: A Large-Scale Hierarchical Audio-Visual Object Dataset #音视频 #数据集 #多模态模型 #模型评估 ✅ 7.0/10 | 前50% | #音视频 | #数据集 | #多模态模型 #模型评估 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文中注明“† These authors contributed equally”,但未明确排序) 通讯作者:Dongchen Zhu12, (注有号) 作者列表:Zehao Yao1,2,†; Guanghui Zhang1,†; Lei Wang1,2; Dongchen Zhu1,2,* (注1:1为Bio-Vision System Laboratory, Science and Technology on Micro-system Laboratory, Shanghai Institute of Microsystem and Information Technology, Chinese Academy of Sciences; 2为University of Chinese Academy of Sciences) 💡 毒舌点评 这篇论文的亮点在于提出了一套严谨、系统化的多模态数据集构建流程,并特别强调了音视频“多重一致性”和层次化标注,填补了现有数据集的空白。然而,其短板也十分明显:论文的核心贡献本质上是一个高质量的“工程产物”(数据集),而在算法、模型或理论层面几乎没有提出新的方法,实验部分主要使用现成的模型进行基线测试,创新性不足。 ...

2026-04-29

Beyond Face Swapping: A Diffusion-Based Digital Human Benchmark for Multimodal Deepfake Detection

📄 Beyond Face Swapping: A Diffusion-Based Digital Human Benchmark for Multimodal Deepfake Detection #音频深度伪造检测 #多模态模型 #基准测试 #扩散模型 #数据集 🔥 8.1/10 | 前25% | #音频深度伪造检测 | #多模态模型 | #基准测试 #扩散模型 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:未说明(论文标注Jiaxin Liu†和Jia Wang†贡献相等,未明确谁为第一) 通讯作者:Saihui Hou⋆, Zhaofeng He⋆ 作者列表:Jiaxin Liu(北京邮电大学,BUPT)、Jia Wang(北京师范大学,BNU)、Saihui Hou(未说明具体机构,可能来自BUPT或BNU)、Min Ren(滴滴出行,Didi Chuxing)、Huijia Wu(滴滴出行,Didi Chuxing)、Long Ma(未说明)、Renwang Pei(未说明)、Zhaofeng He(未说明具体机构,可能来自BUPT或BNU) 💡 毒舌点评 亮点在于构建了第一个专门为评估“扩散模型驱动的数字人”伪造而设计的大规模多模态数据集(DigiFakeAV),数据生成流程严谨,有效暴露了现有检测器的脆弱性,为领域提供了急需的试金石。短板则是提出的检测方法DigiShield虽然有效,但更像一个验证多模态融合有效性的“基线”而非一个具有颠覆性的新架构,且其在DigiFakeAV上80.1%的AUC也说明“道高一尺,魔高一丈”,真正的安全挑战远未解决。 📌 核心摘要 要解决什么问题:现有深度伪造检测数据集和技术主要针对过时的面交换方法,无法有效评估和应对由扩散模型生成的、具有高度真实性和多模态一致性的新一代数字人伪造,导致现有检测器性能在现实威胁面前大幅下降。 方法核心是什么:本文提出两个核心贡献:a) 构建DigiFakeAV,一个包含6万视频的大规模多模态数据集,由5种前沿扩散模型生成,注重多样性、场景真实性和音视频同步质量。b) 提出DigiShield检测框架,采用双流网络分别提取视觉和音频的时空特征,并通过跨模态注意力和自注意力机制进行融合,以捕获微妙的跨模态不一致性。 与已有方法相比新在哪里:a) 数据集是第一个基于扩散模型、强调多模态一致性和场景多样性的伪造检测基准。b) 检测方法显式地建模了视频与音频在时空维度上的对齐关系,旨在应对扩散伪造的高一致性挑战。 ...

2026-04-29

Beyond Isolated Utterances: Cue-Guided Interaction for Context-Dependent Conversational Multimodal Understanding

📄 Beyond Isolated Utterances: Cue-Guided Interaction for Context-Dependent Conversational Multimodal Understanding #多模态模型 #讽刺检测 #对话理解 #跨模态 ✅ 7.5/10 | 前25% | #多模态模型 | #多模态模型 | #讽刺检测 #对话理解 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Zhaoyan Pan(浙江大学) 通讯作者:Wei Zhang(浙江大学) 作者列表:Zhaoyan Pan(浙江大学),Hengyang Zhou(南京大学),Xiangdong Li(浙江大学),Yuning Wang(浙江大学),Ye Lou(浙江大学),Jiatong Pan(浙江大学),Ji Zhou(浙江大学),Wei Zhang(浙江大学) 💡 毒舌点评 论文的核心亮点在于将模糊的“上下文如何影响当前话语”这一问题,显式地提炼为一个“解释性线索”,并以此引导后续的多模态推理,这种三阶段解耦设计思路清晰且有一定启发性。然而,其短板也相当明显:代码未开源,使得这个强调“结构与引导”的精巧设计难以被直接复用和验证;另外,尽管在讽刺数据集上表现亮眼,但在更通用的CMU-MOSEI/MOSI数据集上,其优势相对有限,说明其对复杂对话依赖的建模普适性有待更多考察。 📌 核心摘要 要解决什么问题:现有的多模态对话理解方法通常将上下文与当前话语混合编码或融合,难以显式捕捉和利用“上下文如何具体约束或改变当前话语的解释”这一关键依赖关系,导致模型在处理依赖上下文语义反转的任务(如讽刺检测)时性能受限。 方法核心是什么:提出CUCI-Net,一个三阶段线索引导框架。首先,在编码阶段保持上下文与话语的结构分离,并学习文本锚定的关联表征来引导声学/视觉编码。其次,构建一个包含全局上下文证据和局部模态成对线索的“解释性线索”。最后,将该线索作为条件信号注入多模态交互层,引导最终的上下文条件推理。 与已有方法相比新在哪里:不同于以往通过隐式编码、图传播或对比学习来增强上下文感知的方法,CUCI-Net首次将“上下文-话语依赖”显式抽象为一个紧凑的“解释性线索”,并将其作为独立模块直接介入并指导后续的多模态推理过程,实现了从“被动编码上下文”到“主动利用线索引导推理”的转变。 主要实验结果如何:在MUStARD和MUStARD++两个主流对话讽刺检测基准上,CUCI-Net在整体集和特定子集(讽刺/非讽刺样本)上的F1分数均优于所有对比基线。例如,在MUStARD++的隐式情感标签预测任务中,CUCI-Net的整体F1为28.50%,比次优的MFMB-Net高出4.53个百分点。消融实验证实了三个阶段设计的有效性。在更通用的CMU-MOSEI/MOSI情感分析任务上也展示了竞争力。 实际意义是什么:该工作为对话级多模态理解提供了一个新的建模范式,即通过显式建模和利用上下文依赖线索来提升模型在复杂语用场景下的推理准确性和可解释性,对提升人机对话系统的情商和语境理解能力有参考价值。 主要局限性是什么:1)模型架构相对复杂,涉及双分支、双专家、多阶段构建,计算开销可能较高;2)虽然在特定讽刺检测任务上效果显著,但在更广泛的对话理解任务上的泛化能力需进一步验证;3)论文未开源代码,限制了研究的可复现性和后续跟进。 🏗️ 模型架构 CUCI-Net是一个三阶段、多分支的框架,旨在显式建模并利用上下文-话语依赖来引导多模态推理。 图2:CUCI-Net三阶段架构图。蓝色、绿色、红色分别代表视觉、文本、声学模态;浅色和深色分别代表上下文和话语部分。 第一阶段:上下文-话语结构编码 输入:对于每个模态(文本、声学、视觉),输入是拼接的上下文序列(C)和目标话语序列(U)。 双分支设计:包含两个参数独立但结构相同的分支: 主分支:用于生成最终推理所需的主要模态表征(H_m^p)。 结构保持分支:用于生成保持结构信息的表征(H_m^s),以供后续构建解释性线索。 文本锚定关联表征:文本模态通过ALBERT编码后,通过掩码平均池化得到上下文摘要和话语摘要,两者拼接并计算差值,形成关联表征r,并通过一个sigmoid层得到关联先验分数s。该分数指示了上下文与话语的总体一致性或差异性倾向。 关联引导的非模态编码:对于声学和视觉模态,使用“关联引导的双专家Transformer”进行编码。每个Transformer层包含两个并行的前馈网络(FFN)专家:一个对应一致性变换,一个对应差异性变换。一个可学习的路由系数ρ根据当前隐藏状态和投影后的关联表征r_m,在每个层和模态上动态选择两个专家的混合比例(公式1)。路由损失(公式2)引导s与ρ对齐,并防止路由坍缩。 第二阶段:全局-局部解释性线索构建 该阶段以结构保持分支的输出(H_m^s)为基础,构建最终的解释性线索u_f。 ...

2026-04-29

Bimodal Fusion Framework for Dynamic Facial Expression Recognition In-The-Wild

📄 Bimodal Fusion Framework for Dynamic Facial Expression Recognition In-The-Wild #语音情感识别 #多模态模型 #跨模态 #音视频 #预训练 ✅ 7.0/10 | 前25% | #语音情感识别 | #多模态模型 | #跨模态 #音视频 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Bohui Yang(东南大学计算机科学与工程学院) 通讯作者:Chunfeng Yang(东南大学计算机科学与工程学院), Wentao Xiang(南京医科大学生物医学工程与信息学院) 作者列表:Bohui Yang(东南大学计算机科学与工程学院), Luo Lilin(未说明具体单位,仅在作者列表中), Xiaojia Wang(未说明具体单位,仅在作者列表中), Chunfeng Yang(东南大学计算机科学与工程学院), Wentao Xiang(南京医科大学生物医学工程与信息学院) 💡 毒舌点评 这篇论文的框架设计精巧,将视觉Transformer的参数高效微调(PEFT)思想成功移植到音频-视觉双模态动态表情识别任务中,三个模块(MSA、BFA、CMTM)分工明确,消融实验设计得当,有力支撑了其有效性。然而,其核心创新——在预训练模型中插入适配器(Adapter)进行轻量微调——并非全新概念,论文在探索更深层或更具解释性的跨模态交互机制上着墨不多,主要贡献是工程上的有效整合与验证。 📌 核心摘要 该论文针对野外动态表情识别(DFER)中单模态方法难以捕捉跨模态关联的问题,提出了一个名为BFF-DFER的双模态融合框架。该框架的核心思想是利用预训练的音视频Transformer模型作为骨干网络,冻结其大部分参数,仅通过训练三个轻量级模块来实现高效适配:1) 模态特定适配(MSA)用于增强单模态特征;2) 双模态融合适配器(BFA)用于融合跨模态特征;3) 跨模态时序建模(CMTM)用于建模时间动态。与先前单模态微调或直接融合的方法相比,本工作强调在保持预训练模型完整性的前提下,设计专门的模块来显式建模模态内与时序/跨模态关系。在DFEW和MAFW两个大规模野外基准数据集上,BFF-DFER取得了具有竞争力的性能(DFEW: 67.52% UAR, 78.28% WAR; MAFW: 44.46% UAR, 58.41% WAR),超越了多数现有方法。消融实验证实了各模块的贡献,可视化显示其学习的特征具有更好的类内紧凑性和类间可分性。该工作展示了在资源受限条件下,通过参数高效方法整合多模态预训练知识的有效路径。其主要局限性可能在于框架的复杂性(多个适配器模块)以及未探讨更极端的数据或计算受限场景。 ...

2026-04-29

Bone-Conduction Guided Multimodal Speech Enhancement with Conditional Diffusion Models

📄 Bone-Conduction Guided Multimodal Speech Enhancement with Conditional Diffusion Models #语音增强 #扩散模型 #骨传导 #多模态模型 ✅ 7.5/10 | 前25% | #语音增强 | #扩散模型 | #骨传导 #多模态模型 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Sina Khanagha(汉堡大学信号处理组) 通讯作者:未说明 作者列表:Sina Khanagha(汉堡大学信号处理组)、Bunlong Lay(汉堡大学信号处理组)、Timo Gerkmann(汉堡大学信号处理组) 💡 毒舌点评 本文的亮点在于将扩散模型这一强大的生成范式引入骨传导引导的多模态语音增强任务,并通过设计精巧的条件注入策略(IC/DC),在极低信噪比下实现了显著的性能飞跃(例如在-10dB SNR下POLQA提升超过1分)。然而,其核心短板在于扩散模型固有的多步迭代采样带来的推理速度瓶颈(论文仅简要提及需要数十步,未量化延迟),这使其在助听器、实时通信等需要低延迟的应用场景中面临严峻挑战,论文对此缺乏深入探讨和解决方案。 📌 核心摘要 问题:传统单通道语音增强模型在极端噪声环境(低信噪比)下性能严重下降。虽然骨传导信号(通过颅骨振动采集)对声学噪声免疫,但其带宽有限、清晰度差,如何有效融合这两种互补模态是一个挑战。 方法核心:提出了骨传导条件扩散模型(BCDM),一个基于复数域条件扩散模型的多模态语音增强框架。模型将干净语音作为生成目标,以带噪的空气传导语音为条件引导扩散过程,并创新性地引入骨传导信号作为额外条件。论文比较了两种将骨传导信号注入主网络的条件化策略:输入拼接(IC) 和 解码器条件化(DC)。 创新点:首次将条件扩散模型框架应用于骨传导引导的语音增强;提出了IC和DC两种有效的跨模态条件注入方法;在广泛的声学条件(SNR从-10dB到15dB)下进行了全面实验验证。 实验结果:在ABCS+CHiME3数据集上,所有BCDM变体在所有SNR条件下均优于基线模型(包括单模态扩散模型SGMSE+和多种多模态预测模型)。例如,在极具挑战性的-10dB SNR下,BCDM-DC-L的POLQA分数为2.37±0.45,而最强基线BiNet为2.35±0.40,SGMSE+仅为1.30±0.35。关键对比数据见下表。 模型 SNR=-10dB POLQA SNR=-10dB PESQ SNR=-10dB ESTOI SNR=5dB POLQA SNR=15dB POLQA Noisy Mixture 1.09 1.08 0.21 1.55 2.42 SGMSE+ 1.30 1.15 0.36 2.83 3.55 BiNet 2.35 1.80 0.63 2.62 2.78 BCDM-IC-S 2.36 1.86 0.75 3.00 3.53 BCDM-DC-L 2.44 2.02 0.76 3.20 3.70 实际意义:为助听器、可穿戴通信设备等在极端嘈杂环境下(如工厂、战场)保持清晰语音通信提供了新的技术路径,证明了多模态生成模型的潜力。 ...

2026-04-29

Brainprint-Modulated Target Speaker Extraction

📄 Brainprint-Modulated Target Speaker Extraction #语音分离 #语音增强 #多任务学习 #多模态模型 #鲁棒性 🔥 8.0/10 | 前25% | #语音分离 | #多任务学习 | #语音增强 #多模态模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Qiushi Han(南京邮电大学电子与光学工程学院 & 柔性电子(未来技术)学院) 通讯作者:Liya Huang(南京邮电大学电子与光学工程学院 & 柔性电子(未来技术)学院) 作者列表: Qiushi Han(南京邮电大学电子与光学工程学院 & 柔性电子(未来技术)学院)(†共同第一作者) Yuan Liao(香港中文大学(深圳)人工智能与数据科学学院 & 研究生院)(†共同第一作者) Youhao Si(南京邮电大学电子与光学工程学院 & 柔性电子(未来技术)学院) Liya Huang(南京邮电大学电子与光学工程学院 & 柔性电子(未来技术)学院)(⋆通讯作者) 💡 毒舌点评 本文最大的亮点在于“脑印调制”这一概念的提出,巧妙地将通常被视为噪声的个体EEG差异转化为可用的生物特征信号来指导音频分离,思路新颖且实验验证充分。不过,论文的短板在于对“个性化”的论证稍显单一,主要依赖于SID和AAD任务的监督,缺乏对脑印嵌入空间本身可解释性、跨会话稳定性以及在真实助听器设备上实时性、功耗等方面的深入讨论,使得这项工作的工程化前景存在不确定性。 📌 核心摘要 要解决的问题:当前基于脑电图(EEG)的目标说话人提取(TSE)系统面临两个核心挑战:EEG信号的非平稳性导致跨会话性能不稳定,以及显著的个体间差异限制了通用模型的泛化能力。 方法核心:本文提出了脑印调制目标说话人提取(BM-TSE)框架。该框架首先使用一个带有自适应频谱增益(ASG)模块的时空EEG编码器,从非平稳信号中提取稳定特征。其核心是一个“个性化脑印调制”机制:通过联合优化说话人识别(SID)和听觉注意解码(AAD)任务,学习一个统一的“脑图”嵌入(brainmap embedding),该嵌入同时编码用户的静态身份和动态注意状态,并用它主动调制和优化音频分离过程,实现个性化输出。 与已有方法相比新在哪里:传统TSE方法通常将EEG中的身份特异性信息视为需要抑制的统计噪声。BM-TSE则创新地利用这些“脑印”信息,将其作为个性化的调制信号,直接作用于语音分离网络,从“被动解码注意力”转向“主动利用身份特征进行定制化增强”。 主要实验结果:在KUL和Cocktail Party两个公开数据集上的实验表明,BM-TSE在语音质量(SI-SDR)和可懂度(STOI, ESTOI)上均达到了当前最优(SOTA)。例如,在Cocktail Party数据集上,BM-TSE的SI-SDR为14.02 dB,优于之前的SOTA方法MSFNet(12.89 dB)。消融研究证实了LS-TConv、ASG、SConv模块以及LSID损失的关键作用。 实际意义:该研究为开发新一代真正个性化、高保真的神经调制助听设备提供了有力的技术路径,证明了将用户独特的神经特征融入核心音频处理管线的巨大潜力。 主要局限性:论文未深入探讨该框架在真实实时助听器设备上的计算复杂度、功耗及延迟;对于脑印嵌入在更长时间跨度(如数月或数年)下的稳定性验证不足;此外,实验数据集均为健康被试在实验室环境下录制,模型在听力损失患者及真实嘈杂场景中的泛化能力有待进一步验证。 🏗️ 模型架构 BM-TSE是一个端到端的多模态(EEG+音频)系统,整体架构如图1所示。 ...

2026-04-29