Hijacking Large Audio-Language Models via Context-Agnostic and Imperceptible Auditory Prompt Injection

📄 Hijacking Large Audio-Language Models via Context-Agnostic and Imperceptible Auditory Prompt Injection #音频安全 #音频大模型 #对抗样本 #多模态模型 🔥 评分:8.8/10 | arxiv 👥 作者与机构 第一作者:Meng Chen(浙江大学,ZJU-MUSLAB) 通讯作者:Tianwei Zhang(新加坡国立大学,School of Computing) 其他作者: Kun Wang(浙江大学,ZJU-MUSLAB) Li Lu(浙江大学,ZJU-MUSLAB) Jiaheng Zhang(香港中文大学,Department of Computer Science & Engineering) Kun Wang(阿里云,Alibaba Cloud)(注:论文PDF中作者列表有两位Kun Wang,根据机构推断一位来自ZJU-MUSLAB,另一位来自阿里云) 💡 毒舌点评 亮点:论文首次系统性地研究了针对音频大语言模型(LALM)的“间接”音频提示注入攻击,问题定义精准(数据-only访问、用户在环),并提出了一个通用且有效的攻击框架AudioHijack。槽点:攻击框架严重依赖对目标模型的白盒访问(知道架构和参数),这在现实世界中可能是一个重大限制;此外,虽然提出了多种防御策略,但它们的有效性有限,论文在“如何有效防御”这一更关键的问题上着墨相对较少。 📌 核心摘要 这篇论文揭示了针对音频大语言模型(LALM)的一种新型安全威胁:上下文无关且不可感知的音频提示注入攻击。攻击者仅需篡改输入音频数据(如会议录音、音乐片段),即可在用户不知情的情况下,劫持模型行为,使其执行恶意指令(如发送邮件、下载文件、传播错误信息)。为实现这一目标,作者提出了AudioHijack框架,它通过基于采样的梯度估计解决了音频分词不可微的问题,实现了端到端的对抗音频优化;通过注意力引导的上下文泛化技术,使攻击能泛化到未知的用户指令上下文;并设计了卷积扰动混合方法,将对抗扰动模拟为自然的混响效果,极大提升了攻击的隐蔽性。实验表明,AudioHijack在13个主流LALM上平均攻击成功率高达79%-96%,并成功对Mistral AI和Microsoft Azure的商业语音代理实施了攻击。该研究暴露了音频-文本模态融合中的根本性安全漏洞,为LALM的安全设计提供了重要警示。 🏗️ 模型架构 论文本身并未提出新的模型架构,而是针对现有的、架构各异的大型音频语言模型(LALM) 进行攻击研究。因此,本节将详细描述被攻击的LALM的通用架构流程,以及AudioHijack攻击框架如何与之交互。 1. 被攻击LALM的通用输入输出流程: 现代LALM通常采用端到端架构,直接处理音频输入并生成文本/语音响应。其核心流程如下: 输入:一个组合提示,通常包含: 音频数据:用户上传或参考的音频内容(如录音、音乐)。 用户指令:可以是文本(如“总结这段录音”)或语音(直接说出指令)。 系统提示:模型预设的角色和任务指令。 处理流程: 音频编码:原始音频信号 x 通过一个音频编码器 E(·)(如Whisper的编码器、BEATs等)提取连续声学特征 e = E(x)。 音频-文本对齐:这是架构异构的关键。根据论文分类,有三种主要方案: 离散标记方案:声学特征 e 通过向量量化(VQ)层映射为离散音频标记序列 z,然后通过嵌入矩阵 Φ 查表得到嵌入向量 ẽ = Φ(z),与文本标记嵌入拼接。 连续特征方案:声学特征 e 通过一个模态适配器(如MLP、交叉注意力层)直接投影到文本嵌入空间,得到与文本嵌入维度一致的向量,再与文本嵌入拼接。 混合方案:同时使用离散标记和连续特征,将两者与文本嵌入融合。 大语言模型处理:拼接后的嵌入序列被送入LLM主干(如LLaMA、Qwen等)。LLM以自回归方式生成响应。 输出:生成文本响应,部分全双工模型还会并行生成语音。 2. AudioHijack攻击框架的介入点: AudioHijack的目标是生成对抗音频 x̂,使得当 x̂ 作为“音频数据”输入时,模型的输出行为被劫持。 ...

2026-04-19

Listen, Pause, and Reason: Toward Perception-Grounded Hybrid Reasoning for Audio Understanding

📄 Listen, Pause, and Reason: Toward Perception-Grounded Hybrid Reasoning for Audio Understanding #音频理解 #强化学习 #大语言模型 #音频大模型 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Jieyi Wang (上海AI实验室,北京大学) 通讯作者:Yazhe Niu (CUHK MMLab) 其他作者:Dexuan Xu (北京大学),Zhongyu Wei (复旦大学) 💡 毒舌点评 亮点:论文的“PAUSE” token设计很巧妙,它让模型在遇到听不清、分不清的“声音玄学”时,能先“闭嘴琢磨一下”再回答,模仿了人类“想一想再说”的认知过程,这是对现有音频大模型推理机制的一个有趣补充。槽点:整个框架的“仪式感”太强,从数据构建到两阶段训练再到复杂的奖励函数,工程复杂度拉满,但最终在部分指标上的提升幅度,相对于其付出的计算和开发成本,性价比有待商榷,且PAUSE机制带来的推理延迟是实打实的。 📌 核心摘要 本文旨在解决大型音频语言模型在复杂音频场景中因感知错误导致的推理失败问题。受听觉场景分析启发,作者提出了一个感知接地的混合推理框架。首先,他们构建了一个名为PAQA的新数据集,通过层次化解耦策略(区分语音与环境音、分离不同说话人)为模型提供显式的感知推理训练。在此基础上,提出了HyPeR框架,它包含两个阶段:第一阶段通过监督微调让模型学习结构化的显式感知与反思;第二阶段利用基于GRPO的强化学习,并引入特殊的<PAUSE> token来触发隐式潜在推理,以处理难以用语言描述的声学线索。实验表明,HyPeR在多个音频理解基准测试上显著降低了感知错误,性能可与更大规模的模型相媲美,验证了混合感知-推理方法的有效性。其主要局限性在于<PAUSE>机制增加了训练和推理延迟,且PAQA数据集的规模和领域覆盖仍有待扩展。 🏗️ 模型架构 HyPeR是一个统一的两阶段混合感知-推理框架,整体架构如图1所示。 完整输入输出流程: 输入:原始音频信号 X_a 和文本问题 Q。 第一阶段(显式感知 - SFT):模型(基于Qwen2-Audio-7B-Instruct)被微调以生成结构化的推理链 T。这个过程是自回归的,每一步都依赖于前一步的输出: 规划 (P):基于音频和问题,规划解题逻辑。 描述 (C):提取多层声学特征,包括环境音标签 <ENV>、说话人动态 <SPEAKER> 和语音内容 <ASR>。 推理 (R):基于P和C进行逐步分析推理。 总结 (S):将推理合成为内部结论。 反思 (R‘):对背景音和说话人进行透明分析,并反思以改进答案。 这个显式链 T = {P, C, R, S, R’} 作为最终答案的逻辑感知依据。 过渡门控:在生成显式链后,模型计算“最低组置信度”(LGC)。若LGC落入中间模糊区间 (τ_abort, τ_PAUSE],则触发“思考-再说话”步骤;若低于 τ_abort,则直接中止轨迹。 第二阶段(隐式推理 - RL): 若触发<PAUSE>,模型生成一个<PAUSE>特殊标记,并启动一个潜在推理序列 z_1:L。这些潜在token是“非易失性计算缓存”,它们不输出到最终可见文本,也不参与后续自回归生成的梯度计算,仅用于迭代更新模型的内部隐藏状态 H_t,以进行更深入的音频特征处理。之后,模型恢复生成可见的最终答案。 整个过程由GRPO强化学习优化,奖励函数综合考虑答案准确性、格式合规性、感知一致性(如背景音鲁棒性、说话人-ASR保真度)和长度控制。 关键设计选择理由: ...

2026-04-19

Listening Deepfake Detection: A New Perspective Beyond Speaking-Centric Forgery Analysis

📄 Listening Deepfake Detection: A New Perspective Beyond Speaking-Centric Forgery Analysis #语音伪造检测 #数据集 #多模态 #音视频 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Miao Liu(根据arXiv常见格式推断,可能来自某高校或研究机构,原文未提供具体机构信息) 通讯作者:Fangda Wei(根据arXiv常见格式推断,可能来自同一机构,原文未提供具体机构信息) 其他作者:Jing Wang, Xinyuan Qian(根据arXiv常见格式推断,可能来自同一机构,原文未提供具体机构信息) (注:提供的论文摘要中未包含作者所属机构信息,以上为基于arXiv论文常见格式的推断。完整论文全文通常在标题页或脚注中包含机构信息。) 💡 毒舌点评 亮点在于敏锐地捕捉到了现有深度伪造检测研究的“盲区”——只盯着“说谎的嘴”,却忽略了“倾听的脸”,这个视角的转换很有启发性,为领域打开了新方向。槽点则是新创的“ListenForge”数据集规模可能有限(基于5种生成方法),且提出的MANet模型虽然有效,但其复杂度和在真实世界海量、多变的“聆听”场景下的泛化能力,恐怕还有待更严苛的考验。 📌 核心摘要 本文首次提出了“聆听深度伪造检测”这一新任务,旨在识别视频中人物在倾听状态下(非说话时)的伪造反应,弥补了现有研究主要集中于“说话”场景的不足。为解决此任务数据稀缺的问题,作者构建了首个专门数据集ListenForge,包含由五种不同头部生成方法合成的伪造聆听视频。针对聆听伪造中细微的运动不一致性,作者设计了一个名为MANet的运动感知与音频引导网络,该网络通过捕捉听众视频的细微运动,并利用说话者的音频语义来引导跨模态特征融合,从而有效检测伪造。实验表明,现有的说话深度伪造检测模型在聆听场景下性能显著下降(AUC约60%),而MANet在ListenForge数据集上取得了优越性能(AUC达94.5%)。该工作强调了超越传统“说话中心”范式进行深度伪造检测的必要性,并为交互场景下的多模态伪造分析开辟了新方向。 🏗️ 模型架构 MANet是一个用于二分类(真实/伪造)的双流网络,其核心思想是联合分析听众的视觉运动和说话者的音频语义。 整体流程: 输入:一段包含听众反应的视频片段(视觉流V)和对应的说话者音频片段(音频流A)。 特征提取: 视觉流:使用预训练的3D CNN(如I3D)提取视频片段的时空特征,得到视频特征 V。同时,通过计算相邻帧差异或使用光流网络,提取听众面部/头部的运动特征 M。 音频流:使用预训练的音频网络(如VGGish)提取说话者音频的语义特征 A。 跨模态融合与检测(核心模块 - Motion-aware and Audio-guided Network): 运动特征处理:运动特征 M 首先通过一个由卷积层、批归一化(BN)和ReLU激活组成的模块进行编码。 音频引导的通道注意力(CHA):将编码后的运动特征 M 与音频特征 A 结合。具体地,对 M 进行跨空间平均池化,得到一个通道描述符。然后,将该描述符与音频特征 A 拼接(或进行其他融合),通过全连接层(FC)、ReLU和另一个FC层,再经过Sigmoid函数生成通道注意力权重 W_c。这个权重 W_c 用于对中间视觉特征 V'(可能来自视觉流或运动特征)进行通道维度的重新加权,强调那些与当前说话内容更相关的视觉通道。 空间注意力(SPA):将经过通道加权的特征与运动特征 M 再次结合,通过跨通道平均池化,然后经过卷积层和Sigmoid函数,生成空间注意力图 W_s。这个权重 W_s 用于对原始视频特征 V 进行空间维度的重新加权,引导模型关注听众面部/头部中运动最不一致或最可疑的区域。 分类:将经过双重注意力(空间和通道)精炼后的视频特征 V' 送入分类器(如全连接层),输出伪造概率。 关键设计理由: ...

2026-04-19

MoshiRAG: Asynchronous Knowledge Retrieval for Full-Duplex Speech Language Models

📄 MoshiRAG: Asynchronous Knowledge Retrieval for Full-Duplex Speech Language Models #语音对话系统 #音频大模型 #大语言模型 #流式处理 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Chung-Ming Chien (Kyutai, 推断) 通讯作者:论文未明确标注,根据机构和工作内容推断为 Alexandre Défossez 或 Chung-Ming Chien (Kyutai) 其他作者: Manu Orsini (Kyutai, 推断) Eugene Kharitonov (Meta FAIR, 推断) Neil Zeghidour (Google DeepMind, 推断) Karen Livescu (纽约大学, 推断) Alexandre Défossez (Kyutai, 推断) 注:论文正文未直接列出作者机构,但根据作者邮箱后缀(@kyutai.org, @meta.com, @google.com, @nyu.edu)及致谢内容推断。 💡 毒舌点评 亮点:巧妙地将RAG“塞进”了全双工语音对话的严格时间缝隙里,实现了“边说边查”的真人感,技术路线设计得很优雅。槽点:整个系统依赖大量合成数据训练和复杂的多模块协作(ASR+LLM检索+语音模型),像一台精密但脆弱的瑞士钟表,实际部署和维护成本恐怕不低。 📌 核心摘要 本文提出了MoshiRAG,这是首个集成检索增强生成功能的全双工语音语言模型。要解决的问题是全双工语音模型在保持实时交互性的同时,事实准确性不足的挑战。核心方法是基于Moshi模型,设计了一个异步检索框架:前端全双工模型在遇到知识密集型查询时预测一个特殊的检索触发词<ret>,随后在继续与用户对话的同时,后台异步调用基于文本的检索系统(如LLM或搜索引擎)获取参考资料;利用语音响应中“关键词延迟”的自然时间差(即从开始说话到说出关键信息的时间),在关键内容生成前将检索到的信息注入模型。主要发现显示,MoshiRAG在多项问答基准测试上显著提升了事实准确性(如在TriviaQA上从22.8%提升至73.7%),性能可媲美甚至超越多数非全双工语音模型,同时保持了全双工系统低延迟、高交互性的优势。此外,系统展现出良好的泛化能力,在未见过的数学推理任务上也取得不错效果。实际意义在于为构建更可靠、知识更丰富的实时语音AI助手提供了一条可行路径。局限性在于目前依赖合成数据进行训练,且系统复杂度较高。 🏗️ 模型架构 MoshiRAG是一个模块化系统,由三个核心组件构成,整体流程如图3所示。 前端:RAG增强的Moshi模型(7B参数) * 输入:用户的语音流,经Mimi编解码器编码为音频令牌(12.5 Hz帧率)。 * 核心处理:基于原始Moshi的RQ-Transformer架构,包含一个处理时间序列的“时间Transformer”(12.5 Hz)和一个预测深度音频令牌的“深度Transformer”。模型同时自回归生成两个通道:文本转录通道(包含填充令牌)和语音响应通道的音频令牌。 * 关键修改: * 引入检索触发词<ret>:在特定时间步预测此令牌,触发后台检索。 * 引入参考文本编码器:使用预训练的ARC-Encoder(压缩比4)将检索到的文本参考编码为嵌入序列emb^{ref}。 * 信息注入(公式2):当检索完成(延迟d秒后),参考嵌入通过一个可训练的线性层投影,并以流式相加的方式注入到时间Transformer的输入中。即,在检索完成后开始的连续l个时间步内,模型输入h_i被修改为h_i + h_i^{ref}。这使得模型能在生成响应的“主体”部分前接收到外部知识。 * 输出:自回归生成的语音令牌流,最终转换为波形。 ...

2026-04-19

On the Distillation Loss Functions of Speech VAE for Unified Reconstruction, Understanding, and Generation

📄 On the Distillation Loss Functions of Speech VAE for Unified Reconstruction, Understanding, and Generation #知识蒸馏 #自监督学习 #统一音频模型 #音频理解 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Changhao Cheng (上海交通大学,人工智能学院) 通讯作者:Yanmin Qian (上海交通大学,人工智能学院;听觉认知与计算声学实验室,教育部人工智能重点实验室) (推断,基于其资深作者身份及实验室负责人角色) 其他作者: Wei Wang (上海交通大学,人工智能学院) Wangyou Zhang (上海交通大学,计算机科学学院,听觉认知与计算声学实验室,教育部人工智能重点实验室) Dongya Jia (上海交通大学,人工智能学院) Jian Wu (字节跳动 Seed) Zhuo Chen (上海交通大学,人工智能学院) 💡 毒舌点评 亮点在于它像一个严谨的“调音师”,系统性地探索了语音VAE蒸馏损失的“调音旋钮”(时间轴、维度轴、联合边际),并找到了让重建、理解、生成这三个“声部”和谐共奏的新配方(JMAS-VAE)。槽点则是这“新配方”的调制过程有点复杂,引入的自适应权重和边际参数增加了训���和调参的“玄学”成分,且实验结论高度依赖于所选的教师模型(WavLM),换一个“老师”可能结论又得重写。 📌 核心摘要 本文针对现有语音变分自编码器(VAE)在统一语音重建、理解和生成任务上表现不平衡的问题(尤其是理解能力差),系统性地研究了蒸馏损失函数的设计空间。作者探索了三种将自监督学习(SSL)模型知识蒸馏到VAE潜在空间的方式:时间轴对齐(TAS)、维度轴对齐(DAS)和联合边际对齐(JMAS)。关键创新在于提出了JMAS损失,它不仅进行逐帧对齐,还通过边际余弦相似度和边际距离序列相似度损失来约束特征分布的结构一致性。此外,论文引入了基于梯度范数的自适应加权策略来动态平衡各项损失。大量实验表明,采用自适应加权的JMAS-VAE在重建、理解和生成三项任务的综合得分上取得了最优平衡,显著优于传统VAE和仅进行时间轴对齐的语义VAE。研究揭示了不同对齐方式对语义和声学信息保留的偏向性,为设计统一的语音表示提供了重要见解。 🏗️ 模型架构 该论文的核心是训练一个语音VAE模型,其架构基于 stable-audio-tools 框架。 整体流程:输入为原始语音波形,经过编码器下采样和潜在空间表示,再通过解码器重建语音波形。核心创新在于训练过程中,VAE的潜在表示会通过一个额外的投影层与一个预训练的语音SSL模型(WavLM Large)的中间特征进行对齐(蒸馏)。 主要组件: 编码器:采用DAC(Descript Audio Codec)编码器架构。输入语音信号经过一系列下采样操作(因子为{4,4,5,5}),最终得到一个64维、帧率为40Hz的连续潜在表示 z。 MLP投影层:一个线性层,将64维的潜在表示 z 投影到1024维,得到 z'。这个 z' 将用于与SSL特征进行对齐。 教师模型:使用预训练的 WavLM Large 模型。提取其第23层的特征作为蒸馏目标 f。该特征维度也为1024维,与 z' 对齐。 解码器:采用BigVGAN解码器,将潜在表示 z 上采样并重建为原始波形。 数据流:原始波形 → DAC编码器 → 潜在表示 z (64维) → MLP投影 → z' (1024维)。训练时,z' 与WavLM特征 f 计算蒸馏损失;同时,z 送入BigVGAN解码器进行重建。推理时,只需编码器和解码器。 设计理由:使用DAC和BigVGAN是因其在音频生成领域的有效性。将潜在空间与强大的SSL模型(WavLM)对齐,旨在注入丰富的语义和声学结构信息,弥补VAE自身在理解任务上的不足。 💡 核心创新点 联合边际对齐蒸馏损失(JMAS Loss): ...

2026-04-19

ProSDD: Learning Prosodic Representations for Speech Deepfake Detection against Expressive and Emotional Attacks

📄 ProSDD: Learning Prosodic Representations for Speech Deepfake Detection against Expressive and Emotional Attacks #语音伪造检测 #对比学习 #预训练 #自监督学习 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Aurosweta Mahapatra(约翰霍普金斯大学,语言与语音处理中心 (CLSP)) 通讯作者:Berrak Sisman(约翰霍普金斯大学,语言与语音处理中心 (CLSP)),Nicholas Andrews(约翰霍普金斯大学,语言与语音处理中心 (CLSP))(根据联系邮箱和致谢推断) 其他作者: Ismail Rasim Ulgen(约翰霍普金斯大学,语言与语音处理中心 (CLSP)) Kong Aik Lee(香港理工大学) 💡 毒舌点评 亮点:这篇论文的“脑回路”很清奇,不教模型去死记硬背伪造品的长相,而是先让它闭关修炼,通过“听”大量真实语音来内化人类说话时抑扬顿挫的“气韵”(韵律)。这种“先学正道,再辨邪魔”的思路,确实比单纯刷题(拟合伪造数据)高明不少,在面对情感丰富的“影帝级”伪造语音时,表现出了惊人的韧性。 槽点:不过,这套“两阶段修炼法”听起来就挺费算力的,训练步骤繁琐,而且为了“气韵”修炼,还得额外准备一个韵律编码器和说话人嵌入模型,系统复杂度直线上升。最让人嘀咕的是,论文里对“韵律不一致”的具体定义和建模方式,感觉还有点“玄学”,可解释性有待加强。 📌 核心摘要 这篇论文旨在解决当前语音深度伪造检测(SDD)系统在面对富有表现力和情感的合成语音攻击时泛化能力不足的核心问题。现有方法过度依赖伪造数据,容易学习数据集特定的伪影,而非自然语音的可迁移特征。为此,作者提出了ProSDD,一个创新的两阶段框架。第一阶段,模型仅使用真实语音,通过一个受监督的掩码预测任务,学习以说话人身份为条件的韵律变化(基于音高、语音活动和能量),从而内化自然语音的韵律多样性。第二阶段,模型在欺骗分类任务中,将上述韵律预测任务作为辅助监督目标进行联合优化,以保持对韵律结构的敏感性。实验表明,ProSDD在ASVspoof 2019和2024基准上均优于基线模型,尤其在表达性数据集(如EmoFake和EmoSpoof-TTS)上实现了显著的性能提升(例如,将ASVspoof 2024的EER从25.43%降至16.14%)。该研究证明了显式建模自然语音韵律变异性对于提升SDD系统泛化能力的关键作用。其局限性可能在于对韵律特征的依赖,以及两阶段训练带来的额外计算开销。 🏗️ 模型架构 ProSDD的整体架构基于一个预训练的XLS-R(wav2vec 2.0的多语言版本)自监督学习(SSL)骨干网络,并对其进行两阶段微调。 输入:4秒的音频片段。 输出:二分类结果(真实语音/伪造语音)。 整体流程: Stage I (韵律驱动表示学习): 输入:仅使用真实语音(LibriSpeech)。 骨干网络:XLS-R的卷积编码器和Transformer层。 关键操作: a. 构建目标:对于每个音频帧,构造一个448维的“说话人条件化韵律目标”。该目标由两部分拼接而成:(i) 192维的说话人嵌入(由预训练的ECAPA-TDNN模型提取,对同一说话人的所有语句取平均并L2归一化);(ii) 256维的帧级韵律嵌入(由一个专门的韵律编码器提取,整合了音高F0、语音活动和能量信息)。 b. 掩码预测:对XLS-R的中间表示进行跨度掩码。掩码后的序列通过Transformer得到上下文表示h_t,再经线性层映射到448维。 c. 对比学习目标:使用InfoNCE损失,让模型预测被掩码位置正确的“说话人-韵律”对(正样本),同时区分来自同一说话人不同韵律(类内负样本)和不同说话人相同韵律(类间负样本)的错误配对(K=100个负样本)。 目的:迫使模型在仅接触真实语音时,就学习到与说话人身份相关的、细粒度的韵律变化模式。 Stage II (带韵律辅助监督的欺骗分类): ...

2026-04-19

Room compensation for loudspeaker reproduction using a supporting source

📄 Room compensation for loudspeaker reproduction using a supporting source #音频分类 #声学场景分析 #信号处理 #空间音频 🔥 评分:8.2/10 | arxiv 👥 作者与机构 第一作者:James Brooks-Park(奥尔登堡大学声学组 & “Hearing4all”卓越集群) 通讯作者:Steven van de Par(奥尔登堡大学声学组 & “Hearing4all”卓越集群)- 推断,基于其在作者列表中的最后位置及领域惯例 其他作者: Søren Bech(Bang & Olufsen A/S 研究部,奥尔堡大学电子系统系) Jan Østergaard(奥尔堡大学电子系统系) 💡 毒舌点评 亮点:巧妙利用“哈斯效应”(优先效应)和辅助声源,实现了对直达声与混响声比例的独立控制,这是传统房间均衡技术无法做到的,为高保真音响系统的房间补偿开辟了新思路。槽点:主观听音测试的样本量(8人)偏小,且均为声学专家,结论的普适性有待商榷;提出的滤波器设计在低频区域因相位相互作用仍存在性能瓶颈,离“完美补偿”还有距离。 📌 核心摘要 本文针对传统房间补偿技术仅能修正频谱(音色)而无法控制空间感知(如距离感)的局限,提出了一种创新的补偿方法。该方法通过引入一个延迟的、经过频谱滤波的辅助扬声器,选择性地向房间的混响声场中添加能量,从而在修正主扬声器频谱不规则性的同时,能够主动调节直达声与混响声比。关键创新在于利用听觉的“优先效应”将辅助声源隐藏在感知的混响场中,使其不被听为独立的声源。主观听音实验表明,该方法的性能与成熟的商业补偿算法相当,且优于未经补偿的播放和简单的反向滤波。技术分析证实了该方法能有效改变DRR,但客观频谱偏差指标略逊于传统反向滤波,凸显了主观感知与客观测量之间的差异。 🏗️ 模型架构 本论文提出的并非一个基于深度学习的“模型”,而是一种基于声学信号处理的“方法”或“系统”。其核心架构是一个双扬声器系统(主扬声器+辅助扬声器)及相应的信号处理链。 输入:原始音频信号。 输出:经过处理的、驱动主扬声器和辅助扬声器的两路信号,最终在听音位置合成目标声场。 处理流程: 信号分配:原始音频信号同时送入主扬声器路径和辅助扬声器路径。 辅助路径处理: 延迟:辅助信号被延迟Δ(t)(论文中设定为10毫秒),以激活“优先效应”,确保听觉上声像定位于主扬声器。 滤波:辅助信号通过一个精心设计的频率响应滤波器 w(ω)。该滤波器的设计目标是:当辅助扬声器的输出(经房间传输后)与主扬声器的输出在听音点叠加时,整体的功率谱响应接近一个预设的、平滑的目标响应 |d(ω)|。 去相关:为了确保两个扬声器的能量是“相加”而非“相干干涉”,辅助信号还会通过一个“天鹅绒噪声”序列进行去相关处理,改变其相位特性而不影响幅度响应。 主路径处理:主扬声器通常不进行额外处理(或仅进行基础放大),其直达声保持原样。 声学叠加:主扬声器的直达声与混响声,以及经延迟、滤波、去相关后的辅助扬声器信号(在感知上被归类为混响声)在房间中物理叠加,形成最终的听觉事件。 关键设计选择与理由: 为何用辅助声源:传统方法通过滤波器同时修改直达声和混响声,无法独立控制DRR。辅助声源提供了额外的自由度,允许仅向混响声场“注入”能量。 为何延迟10ms:这是激活优先效应的典型范围(2-50ms),10ms被选为在有效隐藏辅助声源和避免产生可察觉回声之间的折衷点。 为何滤波器设计目标是功率谱相加:由于辅助信号被延迟和去相关,它与主信号在时域上非相干,因此在能量上相加。设计目标 |d(ω)| = sqrt(|h_p(ω)|^2 + |w(ω)h_s(ω)|^2) 正是基于此能量叠加模型。 目标函数约束:为了避免辅助声源能量过大破坏优先效应,以及避免其试图抵消主扬声器能量(这可能导致不稳定或不自然听感),目标函数 d(ω) 被施加了两个约束:1) 必须不小于主扬声器响应 h_p(ω);2) 不能超过 h_p(ω) 加上一个与频率相关的阈值 T(ω)(如70-500Hz为10dB,500Hz-20kHz为6dB)。 💡 核心创新点 概念创新:通过辅助声源控制DRR:首次提出利用一个延迟的辅助扬声器,选择性地向混响声场添加能量,从而实现对直达声与混响声比的频率选择性控制。这是对传统“频谱均衡”范式的根本性扩展,将“空间补偿”纳入房间补偿范畴。 方法创新:利用优先效应隐藏辅助声源:巧妙地应用听觉心理声学原理(优先效应),通过精确的延迟和去相关处理,使辅助扬声器在物理上存在,但在感知上被整合到主扬声器的混响尾迹中,不被识别为独立声源。这解决了引入额外声源可能破坏声像定位的核心难题。 滤波器设计创新:基于能量叠加的约束优化:提出了一个基于能量叠加模型的滤波器设计公式,并创新性地引入了两大约束(避免能量抵消、避免破坏优先效应)来修正目标函数,确保了方法的物理可行性和感知稳定性。 系统优势:规避传统逆滤波的缺陷:由于修改仅作用于感知上的混响声场,该方法天然避免了传统房间逆滤波中常见的预振铃、相位失真和空间鲁棒性差等问题,因为这些伪影在直接声中会被明显感知,但在随机的混响场中则不那么显著。 🔬 细节详述 训练数据:不适用。本方法非数据驱动,无需训练集。滤波器设计基于实测的扬声器-房间脉冲响应。 损失函数:不适用。滤波器设计是基于目标频谱匹配的解析计算,而非损失函数优化。 关键超参数与实现细节: 延迟时间 Δ(t):10毫秒(在听音点测量)。 滤波器长度:2^13个采样点(在44.1kHz采样率下约0.186秒)。 频率补偿范围:70 Hz 至 20 kHz。 优先效应能量阈值 T(ω):70-500 Hz为10 dB;500 Hz-20 kHz为6 dB。 目标函数:模拟一个在恒定混响时间房间内、具有典型指向性特性的扬声器响应,表现为从20Hz到20kHz下降3dB的平滑曲线。 脉冲响应调理:为提升空间鲁棒性,采用两个相距17cm(模拟双耳间距)的麦克风位置平均功率响应,并对幅度响应进行1/3倍频程平滑。 去相关方法:使用“天鹅绒噪声”序列。 训练/推理策略:不适用。系统运行时是实时信号处理:输入音频被分路,一路直接驱动主扬声器,另一路经过延迟、滤波、去相关后驱动辅助扬声器。 📊 实验结果 主观偏好评价(图8): 对比条件:未补偿立体声、简单反向滤波、商业补偿算法、本文提出方法。 结果(偏好评分,0-100): 未补偿立体声:~60 反向滤波:~20 (显著低于其他所有条件,p<0.001) 商业算法:~70 提出方法:~75 显著性:提出方法显著优于未补偿立体声(p<0.05, Cohen‘s d=0.69)和反向滤波。提出方法与商业算法之间无显著差异(p=0.303)。 后测问卷:8名被试中无人报告感知到辅助扬声器作为独立声源存在。 技术评估(频谱偏差,表3): 指标:1/3倍频程平滑后的频谱偏差(SD),越低越好。 结果: 传统反向滤波:左右声道均为 1.1 dB 提出方法:左声道 4.5 dB,右声道 4.7 dB 结论:在纯粹的频谱匹配精度上,传统方法显著优于提出方法(平均差异约3.5 dB)。 DRR分析(图10): 模拟环境:使用RAZR软件模拟与主观实验相同的房间。 结果: 未补偿:DRR随频率升高而显著增加(符合指向性规律)。 传统补偿:DRR曲线与未补偿几乎重合,证实其无法独立控制DRR。 提出方法:DRR曲线更平坦且整体数值更低,证明其能有效向混响场添加能量并改变DRR的频率特性。 🔗 开源详情 论文中未提及任何代码、模型权重或数据集的开源计划。GitHub Issue链接指向的是arXiv论文HTML版本的错误报告页面,并非项目代码库。 ...

2026-04-19

Sky-Ear: An Unmanned Aerial Vehicle-Enabled Victim Sound Detection and Localization System

📄 Sky-Ear: An Unmanned Aerial Vehicle-Enabled Victim Sound Detection and Localization System #音频事件检测 #声源定位 #麦克风阵列 #自监督学习 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Yi Hong(香港科技大学(广州),智慧城市与可持续发展研究所,系统枢纽) 通讯作者:从论文中无法明确判断通讯作者。作者列表按顺序排列,Kevin Hung可能为资深作者。 其他作者: Mingyang Wang(香港科技大学(广州),智慧城市与可持续发展研究所,系统枢纽) Yalin Liu(香港科技大学,电子与计算机工程系) Yaru Fu(香港科技大学(广州),智慧城市与可持续发展研究所,系统枢纽) Kevin Hung(香港科技大学(广州),智慧城市与可持续发展研究所,系统枢纽) 💡 毒舌点评 亮点:论文提出的“两阶段”处理思路(哨兵+响应者)很务实,直击了无人机载系统能耗与性能的核心矛盾,用轻量级MAE做“警卫”,只在必要时唤醒“专家”进行精确定位,逻辑闭环设计得不错。 槽点:实验部分略显“理想国”,在高度受控的仿真环境下验证,缺乏真实复杂环境(如多风、多干扰源)下的鲁棒性测试,且对比的“SOTA方法”基本是自己系统的消融,说服力打了折扣。 📌 核心摘要 本文针对无人机搜救任务中视觉系统受遮蔽、能耗高的问题,提出了一个名为“Sky-Ear”的音频驱动受害者检测与定位系统。核心方法是设计了一个基于环形麦克风阵列的两阶段处理框架:在“哨兵阶段”,系统利用单通道音频和掩码自编码器(MAE)对梅尔频谱图进行重构,通过计算重构误差来检测异常声音(如呼救),此阶段功耗低,用于持续监听;一旦检测到异常,即触发“响应者阶段”,利用所有麦克风通道进行基于到达时间差(TDoA)的精确方向估计。为进一步提高定位精度,系统还设计了连续定位机制,通过优化无人机沿轨迹多次观测得到的方向向量,交叉计算出受害者的位置。实验表明,在模拟的沙漠和森林场景中,该系统能有效检测受害者声音,并通过多次观测显著降低定位误差。其主要贡献在于将自监督学习(MAE)与经典阵列信号处理相结合,实现了一种在计算和能耗约束下可靠的声学感知方案。 🏗️ 模型架构 “Sky-Ear”系统是一个端到端的处理流程,其整体架构可分为三个核心模块:哨兵阶段、响应者阶段和连续定位模块。 输入:M通道的连续音频流,由无人机搭载的环形麦克风阵列(中心1个,周围均匀分布M-1个)采集。 哨兵阶段(Sentinel Stage): 功能:低功耗、持续性的异常声音检测。 输入:仅使用中心麦克风(通道0)的单通道音频片段 a0[Δt]。 核心模型:掩码自编码器(MAE)。 流程: a. 梅尔谱图转换:将音频片段转换为二维梅尔频谱图 X ∈ R^(F×T)。 b. 分块与掩码:将频谱图分割为 N 个大小为 P×P 的图像块。随机掩码掉其中比例为 ρ 的块(用零向量替代),得到掩码后的块序列 Ẍ。 c. 编码器:一个标准的Transformer编码器。输入是未被掩码的块序列,每个块被展平并通过线性投影和位置编码后,送入Transformer。输出是编码后的特征序列 Z_enc。 d. 解码器:一个轻量级的Transformer解码器。输入是编码特征 Z_enc(对应未掩码块)和可学习的掩码标记 t_mask(对应被掩码块)的拼接序列。解码器输出每个块(包括掩码块)的预测特征。 e. 重构与异常判断:解码器的输出经线性层映射回原始像素空间,重构出完整的梅尔频谱图 X̃。计算原始频谱图 X 与重构图 X̃ 之间重建误差最大的前K%块(Top-K策略)的均方误差,作为异常分数 D_re。若 D_re 超过预设阈值 D_th,则判定检测到异常,触发响应者阶段。 响应者阶段(Responder Stage): 功能:被哨兵阶段触发后,进行高精度的单次方向估计。 输入:从环形缓冲区中提取的、包含异常声音的M通道音频序列 A_b[t_trig]。 核心方法:基于广义互相关-相位变换(GCC-PHAT)的TDoA估计与最小二乘法求解。 流程: a. TDoA估计:对于每个外围麦克风 m,计算其与中心麦克风 0 之间的TDoA。通过计算两者音频的互相关谱,在时延域寻找峰值对应的 TDoA_m。 b. DoA求解:根据已知的麦克风几何坐标 r_m 和估计的TDoA值(转换为距离差 V_m = TDoA_m * v_s),构建一个超定线性方程组 G * DoA = V。通过最小二乘法求解得到最优的到达方向单位向量 DoA*。 连续定位模块(Continuous Localization): 功能:整合多次观测结果,优化受害者位置估计。 输入:K次观测中每次观测时无人机的已知3D坐标 p_k 和由响应者阶段计算出的方向向量 DoA_k*。 核心方法:加权最小二乘交叉点优化。 流程:将每次观测视为一条从无人机位置 p_k 出发、方向为 DoA_k* 的射线。理论上,所有射线应相交于受害者位置 s。通过构建一个优化问题,最小化所有射线到估计点 s* 的加权距离平方和,从而解出最优的受害者3D坐标 s*。权重 w_k 由该次观测的TDoA互相关峰值强度决定,信号质量越高的观测权重越大。 输出:受害者的声音事件警报及其3D空间坐标。 💡 核心创新点 两阶段(哨兵-响应者)音频处理框架: ...

2026-04-19

SpeakerRPL v2: Robust Open-set Speaker Identification through Enhanced Few-shot Foundation Tuning and Model Fusion

📄 SpeakerRPL v2: Robust Open-set Speaker Identification through Enhanced Few-shot Foundation Tuning and Model Fusion #说话人识别 #少样本 #数据增强 #迁移学习 🔥 评分:8.3/10 | arxiv 👥 作者与机构 论文作者:Zhiyong Chen, Shuhang Wu, Yingjie Duan, Xinkang Xu, Xinhui Hu 机构信息:论文全文未明确标注作者所属机构。根据作者姓名、研究内容及开源仓库(GitHub)信息推断,作者可能来自**小米(Xiaomi)**或相关研究机构。论文中提及的“Xiaomi LLM Core Team”可能为相关团队,但未在作者单位中直接列出。 第一作者/通讯作者:无法从提供的文本中明确判断第一作者和通讯作者。论文中注明“Zhiyong Chen and Shuhang Wu contributed equally.”(贡献均等)。 💡 毒舌点评 亮点:这篇论文将“对数归一化”(LogitNorm)和“对抗性互惠点学习”(SpeakerRPL)这两个强大的开集学习技术进行了“联姻”,并巧妙地加入了“自适应锚点”来动态建模未知说话人,理论上有板有眼。更实在的是,它承认了少样本微调的不稳定性,并用一套基于特征分布均匀性的模型选择与融合策略来“稳住局面”,最终在Vox1-O*测试集上将EER暴降93%,效果惊人。 槽点:方法听起来像是在已有技术上做“排列组合”加“工程优化”(模型融合与选择),原创性的理论突破有限。此外,模型选择策略依赖于特征相似矩阵的特征值方差,这个指标的普适性和调参敏感性在论文中论证得不够充分,更像是一个为特定实验“量身定做”的后处理技巧。 📌 核心摘要 本文旨在解决开放集说话人识别中的鲁棒性问题,即系统在仅有少量目标说话人注册样本的情况下,需同时准确识别已知说话人并可靠拒识未知说话人。作者在先前SpeakerRPL V1框架基础上提出了三项关键改进:1)设计了一个增强的损失函数,将互惠点学习(RPL)与对数归一化(LogitNorm)相结合,并引入自适应锚点学习,以约束目标说话人表征并提升对未知分布的建模能力;2)提出了一种模型融合策略,通过聚合多个随机初始化训练得到的适配器模型的分数,来稳定少样本微调过程,减少结果随机性;3)设计了一个基于特征分布均匀性(通过中心点和互惠点相似矩阵的特征值方差衡量)的自动模型选择策略,以筛选出最适合融合的候选模型。在VoxCeleb、3D-Speaker和ESD等多个数据集上的实验表明,该方法在各项开集识别指标上均优于基线。特别是在新构建的Vox1-O*测试集上,等错误率(EER)从1.28%降至0.09%,相对降低约93%,验证了方法的有效性和鲁棒性。其局限性在于模型选择策略增加了流程复杂性,且对中文等方言场景的验证尚可进一步扩展。 🏗️ 模型架构 模型整体基于“预训练基础模型 + 轻量级适配器微调”的范式。 基础模型:采用预训练的说话人基础模型 ELec2NetV2,用于提取输入语音的说话人嵌入向量(emb)。 适配器(Post-Adapter):在基础模型之上添加一个轻量级的多层感知机(MLP)作为适配器。在微调阶段,仅训练此适配器,基础模型参数冻结。 训练流程(输入到输出): 输入:目标说话人的注册语音样本(少量,如10条)和合成的未知说话人语音样本。 特征提取:语音通过ELec2NetV2,得到说话人嵌入向量 emb。 分类与损失计算: 嵌入向量 emb 分别与一组可学习的“中心点”(CP, C_k)和“互惠点”(RP, R_k)计算点积,得到原始分数 z_k。 LogitNorm分支:对原始分数向量 z 进行L2归一化得到 ~z_k,然后计算标准的交叉熵损失 L_LogitNorm。 RPL分支:直接使用原始分数 z_k 计算互惠点损失 L_RPL,该损失包含一个分类项(将 emb 推离所有RP,特别是目标类的RP R_y)和一个边际约束项(将 emb 拉近目标类的RP R_y)。 总损失:L = L_LogitNorm + L_RPL。 输出:训练后,模型输出目标说话人的分数或概率,用于后续的识别与拒识判断。 关键设计: 互惠点(RP):代表“非某类”的特征,用于显式建模开集分布,比传统只学习类中心(CP)的方法更适合拒识未知。 对数归一化(LogitNorm):通过对分类logits进行归一化,缓解模型对已知类别的过度自信,提升对未知样本的判别能力。 自适应锚点:在RP集合中额外增加一组无需显式语音数据的可学习锚点(K_adaptive),为模型提供额外的灵活性来表征潜在的未知说话人分布,且不增加CP的负担。 推理流程:输入待识别语音,通过基础模型和适配器得到嵌入,计算其与所有目标说话人CP的分数(或结合RP分数),同时与未知类RP比较,最终输出识别结果或拒识决策。 💡 核心创新点 增强的开集学习损失函数: ...

2026-04-19

SpotSound: Enhancing Large Audio-Language Models with Fine-Grained Temporal Grounding

📄 SpotSound: Enhancing Large Audio-Language Models with Fine-Grained Temporal Grounding #音频理解 #音频事件检测 #音频大模型 #基准测试 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Luoyi Sun(浙江大学,上海人工智能实验室) 通讯作者:Weidi Xie(上海交通大学,上海人工智能实验室) 其他作者: Xiao Zhou(上海人工智能实验室,上海交通大学) Zeqian Li(上海人工智能实验室,上海交通大学) Ya Zhang(上海人工智能实验室,上海交通大学) Yanfeng Wang(上海人工智能实验室,上海交通大学) 💡 毒舌点评 亮点:这篇论文的“时间戳交错序列”设计堪称“暴力美学”,直接把时间戳文本硬塞进音频Token序列里,让大语言模型像读句子一样“读”出时间,思路简单粗暴但异常有效。槽点:合成数据管道虽然巧妙,但用VGGSound配“Walking Tours”背景音,总感觉像是在录音棚里模拟“菜市场”,离真正的复杂声学场景还有点距离;另外,模型对“狗叫”这种瞬态声音的定位精度(见失败案例),似乎还不如它对“男人说话”这种持续性声音的把握来得稳。 📌 核心摘要 本文旨在解决大型音频语言模型在细粒度音频事件时间定位上的不足。现有模型因训练数据缺乏精确时间戳、基准测试过于简单,导致在长音频中定位短暂事件(“大海捞针”)时表现不可靠。为此,作者提出了SpotSound框架,其核心创新在于:1)设计了时间戳交错序列,将绝对时间戳文本与音频特征交错输入LLM,提供显式的时间对齐信号;2)引入了抗幻觉训练目标,通过构建包含正负样本的判别式四元组,强制模型先判断事件是否存在,再进行定位,有效抑制了对不存在事件的幻觉定位。同时,论文构建了SpotSound-Bench基准,其中目标事件仅占音频总长的8.4%,模拟了真实的“稀疏事件定位”挑战。实验表明,SpotSound在多个时间定位基准上达到了最先进水平,并在标准的音频事件检测任务上保持了强泛化能力。 🏗️ 模型架构 SpotSound的整体架构是一个增强型的大音频语言模型,其核心流程分为数据预处理/序列构建和两阶段推理。 1. 输入与特征提取: 原始输入:一段音频 𝒜 和一个自然语言查询 ℚ。 音频编码:音频被重采样至16kHz,转换为128通道的梅尔频谱图。随后通过一个预训练的音频编码器(如Whisper-large-v3),该编码器包含一个步长为2的池化层,将时间分辨率压缩,每个输出时间步约对应原始音频40ms。输出为音频Token序列 𝐀𝑖。 2. 核心创新:时间戳交错序列构建 (Timestamp-Interleaved Sequence) 目的:为音频Token提供显式的、绝对的时间位置信息。 方法:对于每个时间索引 𝑡𝑖 (以1秒为粒度),创建一个文本Token “timestamp: 𝑡𝑖 seconds” (记为 𝐓𝑖),并将其直接放置在对应的音频Token 𝐀𝑖 之前。 序列格式:最终送入大语言模型的序列为:S = [𝐓₁; 𝐀₁; 𝐓₂; 𝐀₂; …; 𝐓ₙ; 𝐀ₙ; 𝐈; ℚ]。其中 𝐈 是任务指令(如“判断是否存在”或“定位时间”),ℚ 是查询文本。这相当于给LLM提供了一个带精确时间刻度的“音频文本混合文档”。 3. 两阶段推理流程: ...

2026-04-19