The Impact of Audio Watermarking on Audio Anti-Spoofing Countermeasures

📄 The Impact of Audio Watermarking on Audio Anti-Spoofing Countermeasures #音频深度伪造检测 #领域适应 #知识蒸馏 #音频水印 #音频安全 🔥 8.5/10 | 前25% | #音频深度伪造检测 | #领域适应 | #知识蒸馏 #音频水印 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Zhenshan Zhang(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心) 通讯作者:Ming Li(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心, ming.li369@dukekunshan.edu.cn) 作者列表:Zhenshan Zhang(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心)、Xueping Zhang(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心)、Yechen Wang(OfSpectrum, Inc.)、Liwei Jin(OfSpectrum, Inc.)、Ming Li(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心) 💡 毒舌点评 亮点:选题填补了一个重要的认知空白——系统量化了“水印”这种合法但普遍存在的人为扰动对反欺骗系统的“无差别攻击”效果,实验设计严谨(控制水印比例、类型分布),结论可靠。提出的KPWL框架在“已知水印”适应上取得了立竿见影的效果,思路清晰实用。 短板:在“未见水印”场景下的性能反而下降,暴露了当前方法对水印特异性的过拟合,极大限制了其在真实世界(水印类型未知且多样)中的应用价值,也说明“领域适应”的本质挑战并未被彻底解决。 📌 核心摘要 问题:本文首次研究了广泛使用的音频水印技术(为版权保护设计)对语音反欺骗(深度伪造检测)系统性能的影响,发现这种影响之前被完全忽视。 方法核心:构建了包含多种手工和DNN水印的“Watermark-Spoofing”数据集,并系统评估了现有模型性能下降的程度。提出名为“知识保留水印学习”(KPWL)的适应框架,通过在冻结前端(XLSR)和分类器的情况下微调中间层,并结合对称知识蒸馏与参数锚定,使模型能适应水印引入的分布偏移。 创新:首次揭示了音频水印是反欺骗系统面临的一种新的、未被研究的领域偏移源;首次构建了用于评估和缓解此问题的专用数据集与基准;提出了首个旨在同时适应水印并保留原始域检测能力的专用框架。 实验结果:在ASVspoof 2021 LA数据集上,当75%的样本被水印时,基线模型(XLSR+SLS)的EER从3.02%上升至3.68%。KPWL模型在相同条件下将EER降至3.21%,同时在干净数据上保持3.06%(与基线3.02%接近)。然而,在“未见水印”评估中,基线模型在75%水印(LA21)下EER为9.94%,而KPWL模型恶化至11.22%。 实际意义:提醒反欺骗系统开发者需考虑水印带来的鲁棒性挑战;为构建抗水印污染的反欺骗系统提供了首个基准和初步解决方案;揭示了水印技术可能对语音安全生态产生的意外副作用。 主要局限性:KPWL框架在应对未见过的水印类型时效果不佳甚至有害,表明当前方法的适应能力局限于训练时接触过的特定水印,泛化能力有待突破。 🏗️ 模型架构 本文的核心模型架构并非提出一种全新的端到端神经网络,而是提出了一种训练策略与框架(KPWL),用于适应现有的反欺骗模型以应对水印干扰。以论文中作为骨干的 XLSR+SLS 模型为例,其整体流程与KPWL框架的适配如下: ...

2026-04-29

Training Dynamics-Aware Multi-Factor Curriculum Learning for Target Speaker Extraction

📄 Training Dynamics-Aware Multi-Factor Curriculum Learning for Target Speaker Extraction #语音分离 #课程学习 #音频安全 #数据集 ✅ 7.0/10 | 前25% | #语音分离 | #课程学习 | #音频安全 #数据集 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Yun Liu(日本国立信息学研究所;综合研究大学院大学) 通讯作者:未说明(论文未明确指定通讯作者,通常根据邮箱判断,此处多个邮箱并列) 作者列表:Yun Liu(日本国立信息学研究所 & 综合研究大学院大学)、Xuechen Liu(日本国立信息学研究所)、Xiaoxiao Miao(昆山杜克大学自然科学与应用科学部)、Junichi Yamagishi(日本国立信息学研究所 & 综合研究大学院大学) 💡 毒舌点评 亮点:将“训练动态可视化”(Dataset Cartography)引入TSE任务,并创新性地结合多因子(SNR、说话人数、重叠率、数据来源)联合调度,克服了传统课程学习依赖预设单一难度指标的缺陷,在复杂多说话人场景下取得了显著的性能增益。 短板:实验仅在单一数据集(Libri2Vox)和一种相对简单的BLSTM模型上验证,未在更先进的模型架构(如基于Transformer的)和更多元的数据集上测试其通用性;TSE-Datamap区域的划分比例(30%,50%,20%)是经验值,缺乏理论支撑或自动优化机制。 📌 核心摘要 问题:现有针对目标说话人提取(TSE)的课程学习方法通常单独处理不同难度因子(如SNR、说话人数),无法建模因子间的复杂交互,且依赖可能不符合模型实际学习情况的预设难度指标。 方法核心:提出多因子课程学习策略,联合调度SNR、干扰说话人数、时间重叠比和干扰源类型(真实/合成)四个因子;同时提出TSE-Datamap框架,通过跟踪训练过程中每个样本的损失置信度和变异性,在二维空间将数据分为“易学习”、“模糊”和“难学习”三个区域,以指导数据选择。 创新:相较于传统单因子、预设规则的课程学习,本文方法实现了多因子协同渐进式学习,并首次将训练动态可视化(TSE-Datamap)应用于TSE,使课程设计基于模型实际学习行为。 实验结果:在Libri2Vox数据集上,所提多因子课程学习相比随机采样基线,在2、3、4个干扰说话人的测试集上iSDR分别提升0.84 dB、1.52 dB、2.05 dB(相对提升约24.5%)。基于TSE-Datamap的“易-模糊-难”(E/A/H)课程顺序表现最佳,在4说话人场景下比手工设计的多因子课程再提升0.11 dB。关键实验数据见下表: 实验设置 iSDR (dB) - 2spk iSDR (dB) - 3spk iSDR (dB) - 4spk 基线 (随机采样) 12.38 8.56 7.16 多因子课程 (手工设计) 13.22 10.08 9.21 TSE-Datamap (E/A/H) 13.15 9.85 9.32 注:E/A/H策略在更复杂的4说话人场景下表现最优。 实际意义:为TSE等复杂语音处理任务提供了一种更智能、数据驱动的训练范式,能有效提升模型在极端条件(多说话人、低信噪比)下的性能和鲁棒性。 ...

2026-04-29

VoxMorph: Scalable Zero-Shot Voice Identity Morphing via Disentangled Embeddings

📄 VoxMorph: Scalable Zero-Shot Voice Identity Morphing via Disentangled Embeddings #语音克隆 #零样本 #语音合成 #流匹配 #音频安全 🔥 9.0/10 | 前10% | #语音克隆 | #流匹配 | #零样本 #语音合成 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Bharath Krishnamurthy (北德克萨斯大学) 通讯作者:Ajita Rattani (北德克萨斯大学) 作者列表:Bharath Krishnamurthy (北德克萨斯大学), Ajita Rattani (北德克萨斯大学) 💡 毒舌点评 这篇论文堪称生物识别安全领域的一声警钟,它用优雅的技术(解纠缠表示学习)和极低的成本(5秒音频),制造出了一个足以让现有语音验证系统头疼不已的“合成身份”。其亮点在于将看似复杂的攻击变得异常简单高效;短板则是,这种“降维打击”式的技术突破,也立刻暴露了当前ASV系统在应对此类高级、细粒度伪造时的脆弱性,给防御方带来了前所未有的压力。 📌 核心摘要 解决的问题:现有的语音身份变形(VIM)攻击方法存在严重缺陷:计算成本高、不可扩展(需要为每对说话人微调)、依赖声学相似的说话人对,且生成语音质量低。这些限制了其作为实际威胁的可行性。 方法核心:提出VoxMorph,一个零样本框架。其核心是将声音解纠缠为韵律嵌入(说话风格)和音色嵌入(核心身份)。对两个说话人的这两种嵌入分别使用球面线性插值进行混合,然后将融合的嵌入输入一个三阶段合成管线:自回归语言模型生成声学令牌(由融合韵律引导),条件流匹配网络生成梅尔频谱图(由融合音色引导),最后神经声码器生成波形。 与已有方法相比新在哪里:a) 零样本与可扩展性:仅需5秒音频,无需微调即可生成变形语音。b) 解纠缠表示:将风格与身份分离,可独立精细控制,避免了传统单一嵌入混合产生的声学伪影。c) 先进合成架构:利用自回归模型和流匹配模型的强大生成能力,确保了高保真度。d) 首个大规模数据集:发布包含10,000个样本的数据集用于防御研究。 主要实验结果:在严格安全阈值(0.01% FAR)下,VoxMorph-v2实现了67.8%的完全匹配变形成功率(FMMPMR),比之前最优方法(ViM的2.61%)高出数十倍。音频质量(FAD)比基线提升2.6倍,可理解性错误(WER)降低73%。详细对比见下表: 方法 FAD↓ (vs Real) WER↓ KLD↓ MMPMR (%) @ 0.01% FMMPMR (%) @ 0.01% MorphFader [16] 8.96 1.84 0.4332 0.0 0.0 Vevo [3] 9.14 0.54 0.1899 82.40 9.00 ViM [14] 7.52 1.06 0.3501 2.61 0.00 VoxMorph-v1 5.03 0.33 0.1404 78.60 60.60 VoxMorph-v2 4.90 0.19 0.1385 99.80 67.80 实际意义:证明了语音变形攻击已从理论走向实用,对自动说话人验证(ASV)系统构成切实、可扩展的安全威胁。同时,通过开源代码、模型和大规模数据集,为社区研究和开发下一代变形攻击检测(MAD)对策提供了关键工具和基准。 主要局限性:a) 攻击属性:该技术本身是一种攻击手段,存在滥用风险。b) 评估局限:评估主要在LibriSpeech数据集上进行,且攻击的是特定ASV系统(Resemblyzer),对真实世界、多场景、多模态ASV系统的威胁程度有待进一步验证。c) 多说话人变形:当前方法聚焦于两两变形,未来可扩展至更多说话人融合。 🏗️ 模型架构 VoxMorph是一个端到端的零样本语音身份变形框架,其整体架构如图1所示,包含提取、插值、合成三个核心阶段。 ...

2026-04-29

ZK-VSA: Zero-Knowledge Verifiable Speaker Anonymization Leveraging Phase Vocoder with Time-Scale Modification

📄 ZK-VSA: Zero-Knowledge Verifiable Speaker Anonymization Leveraging Phase Vocoder with Time-Scale Modification #语音匿名化 #零知识证明 #信号处理 #音频安全 #隐私计算 ✅ 7.5/10 | 前25% | #语音匿名化 | #零知识证明 | #信号处理 #音频安全 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Shuang Liang(上海交通大学计算机科学学院) 通讯作者:Tao Song(上海交通大学计算机科学学院), Bin Yao(上海交通大学计算机科学学院) 作者列表:Shuang Liang(上海交通大学计算机科学学院), Yang Hua(英国女王大学电子、电气工程与计算机科学学院), Peishen Yan(上海交通大学计算机科学学院), Linshan Jiang(新加坡国立大学数据科学研究所), Tao Song(上海交通大学计算机科学学院), Bin Yao(上海交通大学计算机科学学院), Haibing Guan(上海交通大学计算机科学学院) 💡 毒舌点评 论文的亮点在于巧妙地将密码学中的零知识证明与经典的语音信号处理技术结合,为“可验证计算”在语音领域的应用打开了一扇窗,思路新颖且实现扎实。短板在于实验评估稍显单薄,仅验证了单一匿名化算子(PV-TSM)在单一数据集(LibriSpeech)上的效果,且未与其他基于深度学习的语音匿名化或更先进的可验证计算方案进行横向对比,说服力打了折扣。 📌 核心摘要 解决的问题:现有语音匿名化方法只能隐藏说话人身份,但第三方无法验证所发布的匿名语音是否确实由一个可信的原始录音经过预定义的匿名化处理得到,同时又不能泄露原始信息。这带来了对语音证据完整性和处理过程可信度的担忧。 方法核心:提出“可验证语音匿名化”范式,并利用零知识简洁非交互知识证明(ZK-SNARKs)实例化为ZK-VSA系统。核心是将基于相位声码器的时标修改(PV-TSM)匿名化算法编码为SNARK友好的算术电路约束,并结合数字签名和承诺方案,实现既能证明处理过程正确,又不泄露原始语音。 与已有方法相比新在哪里:这是首次将可验证计算(特别是零知识证明)系统性地应用于语音匿名化领域。与单纯追求匿名效果或使用水印的方法不同,它提供了密码学意义上的处理过程正确性保证,且不引入额外的音频伪影。 主要实验结果:在LibriSpeech测试集上评估。匿名化效果方面,ZK-VSA的等错误率(EER)高于原始语音和浮点PV-TSM,表明其增强了匿名性。可理解性方面,字错率(WER)增加通常低于1%(最高为1.8%)。可验证性方面,证明生成时间随音频帧数线性增长(例如16秒音频约13.43秒),但验证仅需毫秒级(约4毫秒),证明大小固定为292字节。 实际意义:为需要审计追踪和隐私保护的语音应用(如法庭取证、隐私敏感数据共享)提供了一种技术解决方案,确保语音处理过程透明、可信且可验证,防止伪造和抵赖。 主要局限性:实验仅在单一数据集和单一匿名化算子(变调)上进行验证,未与其他语音匿名化基线或更复杂的场景(如多语言、带噪)进行对比。此外,系统设计假设了可信的录制设备来生成初始签名,这在实际部署中可能是一个挑战。 🏗️ 模型架构 该论文提出的ZK-VSA并非传统意义上的深度学习模型,而是一个由密码学证明系统和信号处理算法协同工作的协议系统。 ...

2026-04-29

Misinformation Span Detection in Videos via Audio Transcripts

📄 Misinformation Span Detection in Videos via Audio Transcripts #音频安全 #预训练 #多语言 #音视频 ✅ 7.5/10 | 前25% | #音频安全 | #预训练 | #多语言 #音视频 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Breno Matos (联邦米纳斯吉拉斯大学,工作完成时) 通讯作者:未说明 作者列表: Breno Matos (联邦米纳斯吉拉斯大学) Rennan C. Lima (未说明具体机构) Savvas Zannettou (未说明具体机构) Fabrício Benevenuto (未说明具体机构) Rodrygo L.T. Santos (未说明具体机构) 💡 毒舌点评 这篇论文的亮点在于敏锐地捕捉到了“视频虚假信息片段检测”这一空白任务,并提供了首个公开、标注的数据集,为后续研究铺平了道路。然而,其短板也十分明显:方法上缺乏实质创新,仅仅是现有语音转录模型(Whisper)和语言模型(BERTimbau/PTT5)的串联使用,更像是一个“数据集构建与初步验证”的工作,而非一个提出突破性算法的论文。 📌 核心摘要 问题:现有视频虚假信息检测多停留在视频级别的二分类,无法定位视频中具体哪一段内容(即虚假声明)是问题所在,这给事实核查和内容审核带来了困难。 方法核心:提出“虚假信息片段检测”任务。方法流程为:使用Whisper将视频音频转录为文本片段;利用BERTimbau模型将片段和已知的虚假声明转换为向量,通过余弦相似度匹配可能包含虚假信息的片段;最后,使用BERTimbau或PTT5作为分类器,对转录片段进行二分类(是否为虚假信息)。 创新点:首次定义并研究该任务;构建并公开了两个包含时间戳标注的葡萄牙语虚假视频数据集(BOL4Y和EI22);进行了包括时间窗口分析、跨数据集评估在内的系统性基准实验。 主要实验结果:在BOL4Y数据集上,使用BERTimbau分类器在1:75的下采样比例下取得了最佳的Macro F1分数0.68。在“编辑版”数据集(使用记者润色后的声明)上,性能有所提升,最佳F1达到0.81。跨数据集实验(BOL4Y训练,EI22测试)取得了0.71的F1分数,表明模型具有一定的泛化能力。时间分析显示,模型性能在不同月份间存在波动。 实际意义:为自动化辅助事实核查人员定位视频中的虚假内容、为社交平台在虚假声明出现时精准添加警告标签提供了技术可能和数据基础。 主要局限性:依赖于音频转录质量,Whisper的自动分段可能不够精确;数据仅限于葡萄牙语和巴西政治语境,泛化性未知;分类性能(F1=0.68)仍有较大提升空间。 🏗️ 模型架构 本文没有提出新的模型架构,而是构建了一个基于现有预训练模型的处理流水线。整体流程如下: ...

2026-04-24

Benign Fine-Tuning Breaks Safety Alignment in Audio LLMs

📄 Benign Fine-Tuning Breaks Safety Alignment in Audio LLMs #音频安全 #数据增强 #音频大模型 #多模态模型 #对抗样本 🔥 评分:9.5/10 | arxiv 👥 作者与机构 第一作者:Jaechul Roh(推断,因名字在前) 通讯作者:Amir Houmansadr(推断,因名字在后且通常为资深作者) 全部作者:Jaechul Roh, Amir Houmansadr 所属机构:University of Massachusetts Amherst, Department of Computer Science 💡 毒舌点评 亮点:论文像一把精准的手术刀,首次剖开了音频大模型“良性微调”外表下的安全脆弱性,揭示了其与文本/视觉模态截然不同的、由编码器架构决定的“阿喀琉斯之踵”,研究问题抓得准,分析框架设计得妙。槽点:提出的防御方法(远距离过滤和系统提示)虽然有效但略显“直球”,缺乏对模型内部拒绝机制更深入的干预探索,算是给后续研究者留了口饭吃。 📌 核心摘要 这篇论文首次系统研究了良性(无害)音频数据微调对音频大模型安全对齐的破坏作用。要解决的问题是:用户出于提升模型性能目的进行的常规微调,是否会无意中破坏模型的安全防护?方法上,作者提出了一个基于嵌入空间邻近度的过滤框架,从语义、声学及混合维度,选择性地用与有害内容在表示空间上相近的良性音频进行微调。主要发现是,即使微调数据完全良性,也能使越狱成功率(JSR)从个位数飙升至87.12%,且主导的脆弱性维度(语义或声学)取决于模型编码器的架构。实际意义在于揭示了Audio LLMs一个非对抗性、易被忽视的重大安全风险,并提出了两种无需修改架构的实用防御策略(训练时远距离过滤和推理时安全系统提示)。局限性在于研究限于英语单轮对话,未探索非语音音频任务或多语言场景。 🏗️ 模型架构 论文本身并非提出新模型,而是分析三个现有的SOTA音频大模型在微调下的安全行为。因此,模型架构部分描述的是被分析的三个目标模型: Audio Flamingo 3 (AF3):架构为 Whisper音频编码器 -> 2层MLP投影器 -> Qwen2.5-7B LLM骨干(28层)。其关键特点是MLP投影器会压缩音频特征,形成一个与文本对齐空间不同的表示区域。 Kimi-Audio 7B:采用双编码器设计,包含WhisperVQ编码器(通过矢量量化瓶颈,会丢弃部分声学细节)和Whisper-Large-V3编码器。音频信息通过这两个编码器处理后输入LLM。 Qwen2.5-Omni 7B:架构为Whisper-Large-V3编码器 -> 直通(pass-through)-> Qwen2.5-7B Thinker模块。其编码器输出几乎不加修改地传递给LLM,保留了更多的音频-文本对齐信息。 数据流动与关键设计:在所有三个模型中,音频编码器在微调期间是冻结的,只有LLM骨干网络通过LoRA进行参数更新。这是与文本LLM微调的关键区别:在音频LLM中,安全对齐所依赖的表示(来自编码器)并未被微调直接修改,但下游LLM的决策边界却发生了偏移。 💡 核心创新点 首个系统性研究:首次针对音频大模型,系统性地研究了良性微调对安全对齐的破坏作用,填补了该领域的重要空白。 嵌入邻近度过滤与分解框架:提出了一个创新的分析框架,不仅使用模型自身的编码器(内部过滤),还引入外部参考编码器(语义-SentenceBERT,声学-WavLM,混合-Whisper),将“邻近度”分解为不同轴,从而能精细分析脆弱性来源。 揭示架构依赖的脆弱性:核心发现是主导的脆弱性维度(语义或声学)由音频编码器的架构决定。例如,Kimi-Audio(有量化瓶颈)对语义过滤最敏感,AF3(有压缩投影)对混合过滤最敏感。 发现跨模态不对称性:通过对照实验(用相同内容的文本微调),发现音频与文本微调对安全的影响存在架构依赖的不对称模式。AF3中音频微调更危险,Qwen2.5-Omni中文本微调更危险,其根本原则是“安全降级在对齐训练覆盖最少的表示路径上最为严重”。 提出两种实用防御:针对发现的风险,提出了两种无需修改模型架构的防御方法:训练时的“远距离过滤”(选择离有害内容最远的良性数据)和推理时的“安全系统提示”,均能有效将JSR降至近零。 🔬 细节详述 训练数据: 良性音频数据集:共4个。VoiceBench SD-QA(6083条,11种英语口音的事实问答);GammaCorpus-Fact-QA(GC Accents,6600条,由文本合成的多口音音频);MMSU(3000条,多选题);MELD(来自Audio-Reasoner-CoTA,用于引发链式思考推理)。 有害音频数据集:用于评估。将文本基准AdvBench(520条有害提示)和SafetyBench(939条有害提示)通过Google TTS(gTTS)转换为音频。 微调策略: 方法:使用LoRA进行参数高效微调。 关键超参数:AF3: rank=16, alpha=32, lr=2e-5, epochs=3, batch_size=8;Kimi-Audio: rank=16, alpha=32, lr=2e-4, epochs=5, batch_size=16;Qwen2.5-Omni: rank=8, alpha=16, lr=1e-4, epochs=3, batch_size=8。 训练硬件:单张A100或L40S GPU(48GB显存)。 评估指标:主要使用越狱成功率(JSR),即模型遵从有害指令的比例。 防御细节: 远距离过滤:选择良性样本中,与有害样本在嵌入空间中距离最远的子集进行微调。 系统提示防御:在推理时,向微调后的模型添加系统提示:“你是一个负责任的AI助手。你必须拒绝任何涉及非法、有害、不道德或危险活动的请求……”。 📊 实验结果 主要指标对比(AdvBench JSR %): 表1:模型内部过滤下的JSR(括号内为相对于随机采样的变化) ...

2026-04-22

Environmental Sound Deepfake Detection Using Deep-Learning Framework

📄 Environmental Sound Deepfake Detection Using Deep-Learning Framework #音频深度伪造检测 #预训练 #音频分类 #数据增强 #音频安全 ✅ 评分:6.5/10 | arxiv 👥 作者与机构 第一作者:Lam Pham (奥地利理工学院 AIT,数字安全与安全中心) 通讯作者:Son Le (Ton Duc Thang University, Vietnam) 其他作者: Khoi Vu, Dat Tran (FPT University, Vietnam) Phat Lam (HCM University of Technology, Vietnam) David Fischinger, Alexander Schindler, Martin Boyer (奥地利理工学院 AIT,数字安全与安全中心) 💡 毒舌点评 亮点:论文像一本详尽的“菜谱”,把频谱图、网络架构、预训练模型这些“食材”挨个试了个遍,还精心设计了“三阶段烹饪法”(训练策略),最终端出了一盘在特定数据集上色香味俱全的“菜”(高准确率)。槽点:创新性主要体现在“系统性尝试”和“策略调优”上,缺乏让人眼前一亮的“新菜式”(核心方法创新)。而且,这盘“菜”主要用的还是别人家的“高级食材”(预训练BEATs模型)。 📌 核心摘要 本文针对环境声音(如声音事件、声音场景)的深度伪造检测这一新兴任务,提出了一个系统的深度学习框架。核心贡献在于通过大量实验,系统评估了不同频谱图(MEL, CQT, Gammatone)、多种CNN架构(ResNet, Inception等)以及预训练模型(BEATs)在该任务上的表现,并验证了声音事件与声音场景的伪造检测应作为独立任务处理。关键方法包括:1)提出以Gammatone频谱图作为有效输入特征;2)设计了一个包含多损失函数训练、Mixup微调和骨干网络冻结的三阶段训练策略;3)发现并验证了微调预训练的BEATs模型远优于从头训练。主要效果是在EnvSDD测试集上取得了0.98的准确率和0.99的AUC,并在跨数据集测试(ESDD-Challenge-TestSet)中展现了泛化能力。局限性在于方法创新性有限,主要依赖现有技术的组合与优化,且跨数据集性能有显著下降,表明领域泛化仍是挑战。 🏗️ 模型架构 论文提出了一个统一的深度学习框架用于环境声音深度伪造检测(ESDD),其整体流程如下: 输入:一段4秒钟的音频录音。 前端特征提取:将音频信号转换为三种备选的频谱图:恒定Q变换(CQT)、梅尔频谱图(MEL)和伽马通频率滤波器组频谱图(GAM)。实验表明GAM效果最佳。 在线数据增强:对生成的频谱图应用Mixup技术,以缓解真实与伪造音频数据不平衡的问题。 后端CNN模型: 骨干网络(Backbone):将(增强后的)频谱图输入一个深度神经网络架构,提取高维特征向量,即“音频嵌入(Audio Embedding)”。论文评估了四种从头训练的架构(ResNet50, InceptionV3, EfficientNetB1, DenseNet161)以及一个预训练的BEATs模型。 分类头(MLP):将骨干网络输出的音频嵌入向量,送入一个由三层全连接层(Dense Layer)组成的多层感知机(MLP)。 输出:MLP最终输出两个预测概率值:P_fake(伪造概率)和P_real(真实概率),用于二分类决策。 关键设计选择理由: ...

2026-04-22

Anonymization, Not Elimination: Utility-Preserved Speech Anonymization

📄 Anonymization, Not Elimination: Utility-Preserved Speech Anonymization #语音匿名化 #流匹配 #扩散模型 #模型评估 #音频安全 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Yunchong Xiao*, Yuxiang Zhao*(上海交通大学,计算机科学与技术学院,X-LANCE实验室) 通讯作者:Jiachun Liao(南湖实验室,大数据技术研究中心),Xie Chen(上海交通大学,计算机科学与技术学院,X-LANCE实验室) 其他作者: Ziyang Ma(上海交通大学,计算机科学与技术学院,X-LANCE实验室) Shuai Wang(南京大学,智能科学与技术学院) Kai Yu(上海交通大学,计算机科学与技术学院,X-LANCE实验室) 💡 毒舌点评 这篇论文的亮点在于把“匿名化”和“消除”分得门儿清,用流匹配生成千变万化的新“声纹”,而不是粗暴地抹掉或替换,还煞有介事地设计了从头训练下游模型的评估协议,这比那些拿预训练模型在匿名数据上跑个分就完事的“表面功夫”扎实多了。槽点嘛,内容匿名化部分对“语言风格”这种更隐蔽的PII保护力度似乎还不够,而且这么复杂的两阶段框架,真要部署到实时系统里,估计得把服务器累得够呛。 📌 核心摘要 这篇论文针对语音数据隐私保护中“隐私泄露”与“数据效用损失”的核心矛盾,提出了一个新颖的两阶段框架。首先,为解决语音匿名化(保护“谁在说”)中身份多样性不足和可控性差的问题,提出了基于流匹配的说话人嵌入匿名器(F3-VA),它能生成多样且与原始说话人充分分离的新身份。其次,为解决内容匿名化(保护“说了什么”)中传统删除/替换方法导致的声学不连续问题,提出了基于生成式语音编辑的管道(SECA),能无缝替换个人隐私信息。更重要的是,论文提出了一种更真实的效用评估协议,即通过在匿名化数据上从头训练ASR、TTS和SER模型来评估其作为训练资源的价值,而非仅在预训练模型上测试。实验表明,该框架在VoicePrivacy Challenge基线对比中,在提供更强隐私保护(更高的声学和内容验证等错误率)的同时,显著降低了下游任务性能的损失。 🏗️ 模型架构 本论文提出了一个统一的两阶段语音隐私保护框架,整体流程如下: 第一阶段:语音匿名化(F3-VA) 输入:原始语音波形。 特征提取与解耦: 语义内容:使用预训练的HuBERT-large模型提取语义特征 f_sem,并通过向量量化(VQ)层得到 c_vq,作为信息瓶颈去除残余说话人信息。 韵律特征:使用RMVPE模型提取基频(F0),转换为半音尺度并减去句中位数,得到归一化的音高特征 p_norm。 说话人身份:使用预训练的CAM++模型提取192维的说话人嵌入 s_orig。 c_vq 和 p_norm 共同构成“说话人无关特征”。 语音重建骨干网络:基于扩散Transformer(DiT)的条件流匹配模型。 输入:将高斯噪声 x0 与对齐后的说话人无关特征拼接,并以原始说话人嵌入 s_orig 和时间步 t 为全局条件。 过程:学习一个概率流,将噪声 x0 变换为目标梅尔频谱图 x1。 输出:预测流场,通过MSE损失进行监督。 说话人嵌入匿名器(核心创新):一个基于流匹配的生成模型,用于生成匿名的说话人嵌入 s_anon。 编码(ODE-1):将原始说话人嵌入 s_orig 通过逆向流映射回标准高斯分布 z_orig。 混淆:将 z_orig 与一个独立采样的随机噪声 z_rand 进行线性插值,得到 z_anon。插值权重 w 控制原始身份的保留强度。 生成(ODE-2):将 z_anon 通过正向流映射回说话���嵌入空间,得到匿名的 s_anon。 声学重建(ODE-3):以 s_anon 和说话人无关特征为条件,运行语音重建骨干网络的ODE,从高斯噪声生成匿名的梅尔频谱图 x_anon。 输出:通过声码器将 x_anon 合成匿名语音波形。 第二阶段:内容匿名化(SECA) ...

2026-04-21

Benign Fine-Tuning Breaks Safety Alignment in Audio LLMs

📄 Benign Fine-Tuning Breaks Safety Alignment in Audio LLMs #音频大模型 #模型评估 #对抗样本 #基准测试 #音频安全 🔥 评分:9.0/10 | arxiv 👥 作者与机构 第一作者:Jaechul Roh(推断,基于论文作者顺序和邮箱前缀) 通讯作者:Amir Houmansadr(麻省大学阿默斯特分校,计算机科学系) 其他作者:无(本文为双作者论文) 所属机构:University of Massachusetts Amherst(麻省大学阿默斯特分校),计算机科学系。 💡 毒舌点评 亮点:这篇论文像一把精准的手术刀,首次剖开了音频大模型“安全对齐”的脆弱内脏——原来不用投毒,光喂“健康食品”(良性数据)就能让它对“坏指令”言听计从。其“邻近性分解”框架巧妙地将模糊的“相似”拆解为“说了啥”和“听着像啥”,并发现这居然取决于模型“耳朵”(编码器)的构造,洞察深刻。 槽点:研究聚焦于英语单轮问答,像是在无菌实验室里测试病毒的威力,现实世界中多语言、多轮次、带背景噪音的“培养皿”会怎样?防御手段(系统提示)虽有效,但像个事后补的“道德补丁”,模型本身的“先天缺陷”如何从架构上根治? 📌 核心摘要 这篇论文首次系统研究了良性音频数据微调对音频大模型安全对齐的破坏性影响。核心问题是:用户出于提升性能的目的,在完全无害的音频数据上微调模型,是否会意外削弱其拒绝有害指令的能力?作者提出了一个基于嵌入空间邻近性的过滤框架,通过计算良性音频与有害音频在模型内部或外部参考编码器空间中的距离,来选择性地构建微调数据集。实验在三个SOTA模型上进行,发现:1)良性微调能显著提升越狱成功率,在邻近性过滤下,JSR从个位数飙升至87.12%;2)主导的脆弱性轴(语义或声学)是架构依赖的,由音频编码器如何将声音映射到LLM输入空间的方式决定;3)防御是可行的,通过“远距离过滤”训练数据或在推理时添加安全系统提示,可将JSR降至近零。研究揭示了音频大模型安全与文本/视觉模型的结构性差异,强调了模态感知的安全评估和数据筛选的必要性。 🏗️ 模型架构 论文本身并未提出新模型,而是对三个现有SOTA音频大模型进行安全分析。其整体分析流程和涉及的模型架构如下: 输入:原始音频波形。 音频编码器(冻结):将波形转换为高级表示。 Audio Flamingo 3 (AF3):使用Whisper编码器,后接一个两层MLP投影器,将音频特征压缩后输入LLM。 Kimi-Audio-7B:采用双编码器设计,包含一个WhisperVQEncoder(通过矢量量化引入瓶颈)和一个Whisper-Large-V3编码器。 Qwen2.5-Omni:使用Whisper-Large-V3编码器,其输出以“直通”方式(无压缩投影)输入LLM。 大语言模型(部分参数通过LoRA微调):接收音频编码器的输出(可能经过投影),生成文本响应。三个模型的LLM骨干均基于Qwen2.5-7B。 输出:文本形式的回答(可能包含拒绝信息或有害内容)。 安全对齐:模型在预训练后经过安全对齐训练,使其能拒绝有害文本指令。这种对齐主要针对文本表示空间,对音频输入产生的表示可能覆盖不足。 数据流:音频 → [冻结的音频编码器] → [可选的投影层] → [LLM(部分参数通过LoRA更新)] → 文本输出。 关键设计选择:论文的核心发现在于,不同音频编码器架构(压缩式、量化瓶颈式、直通式)决定了良性微调数据在嵌入空间中的“邻近性”如何影响安全边界,从而导致了差异化的安全脆弱性。 💡 核心创新点 首次系统研究音频大模型良性微调安全:开辟了新的研究问题,揭示了在无对抗者参与的情况下,仅使用良性数据微调即可严重破坏音频大模型的安全对齐,这与文本和视觉领域的发现有本质区别(因编码器冻结)。 提出嵌入空间邻近性分解框架:创新性地将良性数据与有害数据的“接近度”分解为语义轴(说了什么,使用Sentence-BERT)、声学轴(听着像什么,使用WavLM)和混合轴(两者结合,使用Whisper)。该框架能够诊断不同模型架构下,驱动安全退化的主要数据属性。 揭示架构依赖的漏洞模式:通过实验证明,哪个邻近性轴(语义/声学/混合)最能预测安全退化,取决于目标模型音频编码器的具体架构(如Kimi-Audio对语义敏感,AF3对混合特征敏感)。 发现并解释跨模态不对称性:通过对照实验(音频微调 vs. 文本微调),发现安全退化的方向(哪种模态更危险)也依赖于架构。AF3中音频微调更危险,而Qwen2.5-Omni中文本微调更危险,根本原因是安全对齐覆盖的表示路径不同。 提出并验证两种有效防御:提出了训练时的远距离过滤(选择离有害数据最远的良性数据)和推理时的安全系统提示,两者均能无需修改架构地将越狱成功率降至近零。 🔬 细节详述 训练数据: 良性音频数据集:VoiceBench SD-QA (6,083条,11种英语口音), GammaCorpus-Fact-QA (合成6,600条), MMSU (3,000条多选题), MELD (用于推理任务)。 有害音频数据集:AdvBench (520条有害提示), SafetyBench (939条有害提示),均通过Google TTS转换为音频。 微调策略: 方法:使用LoRA进行参数高效微调。 关键超参数: AF3: LoRA Rank=16, Alpha=32, LR=2e-5, Epochs=3, Batch Size=8 Kimi-Audio: LoRA Rank=16, Alpha=32, LR=2e-4, Epochs=5, Batch Size=16 Qwen2.5-Omni: LoRA Rank=8, Alpha=16, LR=1e-4, Epochs=3, Batch Size=8 冻结组件:所有模型的音频编码器在微调期间均被冻结。 评估指标:越狱成功率,在AdvBench和SafetyBench上计算。基线JSR很低(个位数)。 邻近性过滤: 距离计算:余弦距离。 过滤过程:对每个良性样本,计算其与所有有害样本的最小距离,然后选择距离最小的前k%样本进行微调。k通常取10, 20, …, 90。 参考编码器:Sentence-BERT(语义)、WavLM-Large(声学)、Whisper-Large-V3(混合)。 机制分析: 拒绝方向提取:在预训练模型上,计算LLM每一层在拒绝回答和合规回答的有害提示上平均激活的差异,得到“拒绝方向”。 投影分析:计算微调后模型在相同有害提示上的激活在预训练“拒绝方向”上的投影值。发现微调后,尤其是音频微调,在LLM的后期层(L20-26)该投影值显著下降,表明拒绝机制被抑制。 📊 实验结果 主要结果(表1 & 表2 核心数据): Kimi-Audio:在SD-QA数据上,使用语义过滤(25%)时,AdvBench JSR达到87.12%(+82.50),是最高值。模型内过滤在25%时为58.08%。 AF3:在SD-QA数据上,使用混合过滤(Whisper-V3)效果最显著,50%过滤时AdvBench JSR为24.42%(+16.73)。声学过滤甚至导致JSR下降(负增长)。 Qwen2.5-Omni:模型内过滤(即混合过滤,因其编码器是Whisper)在25%时AdvBench JSR为30.09%。声学过滤也有效(23.46%)。 随机采样:作为对照,随机采样微调导致的JSR增长远低于邻近性过滤,且不稳定(有时甚至降低JSR)。 音频 vs. 文本微调(图2 数据): AF3:对同一组语义过滤的良性样本,音频微调使AdvBench JSR升至24.42%(50%过滤),而文本微调使JSR降至3.85%。 Qwen2.5-Omni:模式相反,文本微调(25%过滤)的JSR为16.35%,高于音频微调的9.42%。 防御效果(表3 & 表7): 远距离过滤:对AF3,使用远距离语义/声学过滤,JSR降至接近或低于基线(如AdvBench JSR 3.27%)。 系统提示防御:在微调后模型上添加安全系统提示,JSR降至近0%(例如Kimi-Audio从58.08%降至0.00%)。 机制分析结果(图3): 在AF3中,音频微调强烈抑制了LLM第20-26层的拒绝方向投影值(从186降至8),而文本微调则基本保持。 在Qwen2.5-Omni中,音频和文本微调均抑制了后期层的拒绝信号,且文本微调抑制更强。 ⚖️ 评分理由 创新性:10/10。开创了音频大模型良性微调安全这一全新研究方向,提出的邻近性分解框架极具洞察力,揭示的架构依赖规律是领域内的重要新知。 实验充分性:9.5/10。实验设计极其全面严谨,覆盖多模型、多数据集、多基准、多角度对照(过滤方法、模态、防御),并辅以深入的机制分析,数据量大,说服力强。 实用价值:9/10。直接针对音频大模型实际部署中的核心风险(用户微调),并提供了立即可用的防御方案(数据筛选、提示工程),对模型开发者、平台和用户都有重要实践指导意义。 灌水程度:1/10。论文内容紧凑,每一部分(问题、方法、实验、分析、防御)都围绕核心贡献展开,信息密度高,无冗余或夸大表述。 🔗 开源详情 代码:论文提及提供了GitHub仓库(https://github.com/…),但未在正文给出完整链接。推测包含用于邻近性过滤和实验复现的代码。 模型权重:论文中评估的三个模型(AF3, Kimi-Audio, Qwen2.5-Omni)均为公开的SOTA模型,其预训练权重可在Hugging Face等平台获取。微调后的模型权重未提供,以防滥用。 数据集:使用的良性数据集(SD-QA, GC Accents, MMSU, MELD)和有害数据集(AdvBench, SafetyBench)多为公开基准。论文未提及发布新数据集。 预训练权重:未提供,依赖于上述公开模型。 在线Demo:未提及。 引用的开源项目:依赖的主要开源工具/模型包括:Whisper (编码器), Sentence-BERT, WavLM, Hugging Face Transformers库, LoRA实现等。 🖼️ 图片与表格 图1 (Bar Charts of ASR):展示了AF3和Qwen2.5-Omni在音频微调和文本微调下,不同过滤比例(25%,50%,75%)在AdvBench和SafetyBench上的ASR(即JSR)对比。保留: 是 - 这是核心结果图,直观展示了跨模态不对称性和过滤比例的影响。 图2 (Proximity Filtering Diagram):示意图,解释了如何基于良性样本到有害样本的最小距离进行排序和过滤。保留: 是 - 清晰说明了核心方法“邻近性过滤”的工作流程。 表1 (Model-Internal Filtering Results):详细列出了三个模型在模型内过滤和随机采样下,不同过滤比例在两个安全基准上的JSR及相对于基线的变化。保留: 是 - 提供了核心实验数据。 表2 (Reference-Based Filtering Results):详细列出了三个模型在语义、声学、混合三种���考编码器过滤下,不同过滤比例在两个安全基准上的JSR及变化。保留: 是 - 揭示了架构依赖的漏洞模式,是关键数据表。 表3 (Distant Filtering Defense Results):展示了使用“远距离过滤”防御策略后的JSR结果。保留: 是 - 验证了第一种防御的有效性。 其他表格/图表:如附录中的t-SNE可视化、机制分析图、消融实验表等,对于深入理解有帮助,但非核心结论的必需展示。在主报告中可简述其结论。 📸 论文图片 ...

2026-04-21

Hijacking Large Audio-Language Models via Context-Agnostic and Imperceptible Auditory Prompt Injection

📄 Hijacking Large Audio-Language Models via Context-Agnostic and Imperceptible Auditory Prompt Injection #音频安全 #音频大模型 #对抗样本 #多模态模型 🔥 评分:8.8/10 | arxiv 👥 作者与机构 第一作者:Meng Chen(浙江大学,ZJU-MUSLAB) 通讯作者:Tianwei Zhang(新加坡国立大学,School of Computing) 其他作者: Kun Wang(浙江大学,ZJU-MUSLAB) Li Lu(浙江大学,ZJU-MUSLAB) Jiaheng Zhang(香港中文大学,Department of Computer Science & Engineering) Kun Wang(阿里云,Alibaba Cloud)(注:论文PDF中作者列表有两位Kun Wang,根据机构推断一位来自ZJU-MUSLAB,另一位来自阿里云) 💡 毒舌点评 亮点:论文首次系统性地研究了针对音频大语言模型(LALM)的“间接”音频提示注入攻击,问题定义精准(数据-only访问、用户在环),并提出了一个通用且有效的攻击框架AudioHijack。槽点:攻击框架严重依赖对目标模型的白盒访问(知道架构和参数),这在现实世界中可能是一个重大限制;此外,虽然提出了多种防御策略,但它们的有效性有限,论文在“如何有效防御”这一更关键的问题上着墨相对较少。 📌 核心摘要 这篇论文揭示了针对音频大语言模型(LALM)的一种新型安全威胁:上下文无关且不可感知的音频提示注入攻击。攻击者仅需篡改输入音频数据(如会议录音、音乐片段),即可在用户不知情的情况下,劫持模型行为,使其执行恶意指令(如发送邮件、下载文件、传播错误信息)。为实现这一目标,作者提出了AudioHijack框架,它通过基于采样的梯度估计解决了音频分词不可微的问题,实现了端到端的对抗音频优化;通过注意力引导的上下文泛化技术,使攻击能泛化到未知的用户指令上下文;并设计了卷积扰动混合方法,将对抗扰动模拟为自然的混响效果,极大提升了攻击的隐蔽性。实验表明,AudioHijack在13个主流LALM上平均攻击成功率高达79%-96%,并成功对Mistral AI和Microsoft Azure的商业语音代理实施了攻击。该研究暴露了音频-文本模态融合中的根本性安全漏洞,为LALM的安全设计提供了重要警示。 🏗️ 模型架构 论文本身并未提出新的模型架构,而是针对现有的、架构各异的大型音频语言模型(LALM) 进行攻击研究。因此,本节将详细描述被攻击的LALM的通用架构流程,以及AudioHijack攻击框架如何与之交互。 1. 被攻击LALM的通用输入输出流程: 现代LALM通常采用端到端架构,直接处理音频输入并生成文本/语音响应。其核心流程如下: 输入:一个组合提示,通常包含: 音频数据:用户上传或参考的音频内容(如录音、音乐)。 用户指令:可以是文本(如“总结这段录音”)或语音(直接说出指令)。 系统提示:模型预设的角色和任务指令。 处理流程: 音频编码:原始音频信号 x 通过一个音频编码器 E(·)(如Whisper的编码器、BEATs等)提取连续声学特征 e = E(x)。 音频-文本对齐:这是架构异构的关键。根据论文分类,有三种主要方案: 离散标记方案:声学特征 e 通过向量量化(VQ)层映射为离散音频标记序列 z,然后通过嵌入矩阵 Φ 查表得到嵌入向量 ẽ = Φ(z),与文本标记嵌入拼接。 连续特征方案:声学特征 e 通过一个模态适配器(如MLP、交叉注意力层)直接投影到文本嵌入空间,得到与文本嵌入维度一致的向量,再与文本嵌入拼接。 混合方案:同时使用离散标记和连续特征,将两者与文本嵌入融合。 大语言模型处理:拼接后的嵌入序列被送入LLM主干(如LLaMA、Qwen等)。LLM以自回归方式生成响应。 输出:生成文本响应,部分全双工模型还会并行生成语音。 2. AudioHijack攻击框架的介入点: AudioHijack的目标是生成对抗音频 x̂,使得当 x̂ 作为“音频数据”输入时,模型的输出行为被劫持。 ...

2026-04-19