Conditional Diffusion Models for Mental Health-Preserving Voice Conversion

📄 Conditional Diffusion Models for Mental Health-Preserving Voice Conversion #语音转换 #扩散模型 #语音匿名化 #语音生物标志物 #零样本 🔥 8.0/10 | 前25% | #语音转换 | #扩散模型 | #语音匿名化 #语音生物标志物 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Siddharth Kalyanasundaram(科罗拉多大学博尔德分校认知科学与计算机科学研究所) 通讯作者:未说明(从邮箱格式和惯例推断,Theodora Chaspari可能为通讯作者,但论文未明确标注) 作者列表:Siddharth Kalyanasundaram(科罗拉多大学博尔德分校认知科学与计算机科学研究所)、Theodora Chaspari(科罗拉多大学博尔德分校认知科学与计算机科学研究所) 💡 毒舌点评 这篇论文巧妙地将扩散模型用于一个“政治正确”但技术挑战十足的场景——在给抑郁症语音“变声”脱敏的同时,还要保住其病情线索,想法和落点都值得称赞。但遗憾的是,模型的训练“粮草”太少(仅28小时语音),导致其在通用语音质量(自然度、可懂度)上略逊于“吃得多”的基线,显得“巧妇难为无米之炊”。 📌 核心摘要 解决的问题:语音是心理健康(如抑郁症)的重要生物标志物,但包含说话人身份等敏感信息,阻碍了数据共享与研究复现。需要在匿名化语音的同时,保留对心理健康研究至关重要的副语言信息。 方法核心:提出一种基于条件扩散模型(DM)的语音转换(VC)框架。首先,将语音解耦为内容(w2v)、音高(f0)、说话人身份(s)和抑郁(d)四个嵌入表示。然后,以目标说话人嵌入(s’)和抑郁嵌入(d)作为条件,指导扩散模型的反向去噪过程,生成既改变身份又保留抑郁线索的新语音。 与已有方法的新意:首次将扩散模型应用于明确保留抑郁线索的语音转换任务。现有VC方法(如基于VAE、GAN的模型)在匿名化时会严重退化副语言信息(如情绪、抑郁线索),而本文通过将抑郁嵌入作为扩散过程的显式条件,实现了对关键生物标志物的保护。 主要实验结果:在未见说话人的零样本设置下,所提模型(DM-23M, DM-67M)与SOTA基线(Vevo-Voice, QuickVC)在语音可懂度(WER/CER)和说话人相似度(SECS)上表现相当。核心优势在于抑郁信息保留:所提模型转换后语音的抑郁严重程度(PHQ-8)预测平均绝对误差(MAE)显著低于基线(DM-23M:5.025 vs. Vevo-Voice:5.478, QuickVC:5.804),且预测分数分布与原始语音更接近(KL散度约0.06 vs. 24+)。 模型 WER ↓ CER ↓ SECS ↑ PHQ-8 MAE ↓ nMOS ↑ sMOS ↑ 原始语音 0.046 0.025 0.872 4.522 4.17 3.85 Vevo-Voice 0.078 0.043 0.850 5.478 4.14 3.74 QuickVC 0.059 0.046 0.731 5.804 4.04 3.59 DM-23M (本文) 0.082 0.047 0.804 5.025 3.97 3.71 DM-67M (本文) 0.068 0.041 0.829 5.055 4.03 3.78 实际意义:为心理健康研究提供了一种潜在的隐私保护工具,可以在保护参与者隐私的前提下,促进脱敏语音数据的共享与分析,有助于推动该领域的研究复现和跨机构合作。 主要局限性:训练数据规模较小(仅28小时),限制了模型生成语音的自然度和可懂度;仅针对抑郁症进行评估,未验证对其他副语言信息(如情绪、认知状态)的保留能力;隐私-效用权衡(EER指标)显示匿名化程度还有提升空间。 🏗️ 模型架构 论文提出的模型架构遵循“源-滤波器”分解框架,并采用扩散模型进行条件生成。整体流程如图1所示。 ...

2026-04-29

Content Anonymization for Privacy in Long-Form Audio

📄 Content Anonymization for Privacy in Long-Form Audio #语音匿名化 #大语言模型 #说话人验证 #端到端 ✅ 7.5/10 | 前25% | #语音匿名化 | #大语言模型 | #说话人验证 #端到端 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Cristina Aggazzotti(约翰霍普金斯大学人类语言技术卓越中心) 通讯作者:未说明 作者列表:Cristina Aggazzotti(约翰霍普金斯大学人类语言技术卓越中心,电子邮箱 caggazz1@jhu.edu),Ashi Garg(约翰霍普金斯大学人类语言技术卓越中心,电子邮箱 agarg22@jhu.edu),Zexin Cai(约翰霍普金斯大学计算机系,电子邮箱 zcai21@jhu.edu),Nicholas Andrews(约翰霍普金斯大学人类语言技术卓越中心及计算机系,电子邮箱 noa@jhu.edu) 💡 毒舌点评 本文敏锐地指出了当前语音匿名化研究在长音频场景下的“皇帝新衣”——只藏声音不改说话方式等于白藏,并提出了用LLM改写文本来釜底抽薪的思路,是这个小众但重要的领域一次扎实的“问题-方案”闭环。不过,文中仅拿出了几个现成LLM模型进行“平A”,并未深入探究文本风格改写的具体机制与边界(比如对口语化、情感色彩的保持能力),在实验深度上略显保守。 📌 核心摘要 问题:现有语音匿名化技术(如VoicePrivacy Challenge)主要针对短音频,仅通过声学处理隐藏说话人身份。然而在长音频(如电话、会议)中,同一说话人的多条语音所展现出的词汇、句式等语言风格会成为强大的生物特征旁信道,使攻击者即使在声音被完全转换后仍能重新识别说话人。 方法核心:提出在自动语音识别(ASR)和语音合成(TTS)的级联管道中,引入基于大语言模型(LLM)的上下文文本改写步骤。该方法不是逐句改写,而是采用滑动窗口,结合前文语境对多条转录文本进行联合改写,旨在消除说话人特有的语言风格,同时保留原始语义。 创新性:这是首次系统性地评估LLM文本改写作为防御“基于内容的攻击”的有效性的研究。与现有仅处理声学信号或简单掩盖PII的方法不同,该方案直接从攻击者依赖的语言内容特征入手。 主要结果:实验在Fisher电话对话语料库上进行。结果显示,仅进行语音匿名化时,内容攻击的等错误率(EER)随可用语音数量增加而显著下降(攻击更准),证明语言内容泄露了身份。而采用所提的内容匿名化(特别是上下文联合改写)后,内容攻击的EER能稳定在50%左右(接近随机猜测)。具体而言,使用GPT-5和Gemma-3-4B模型进行段改写,对内容攻击的防御效果优于逐句改写(GPT-4o-mini)。语义相似度测试(如DTW)表明改写后内容得以保留。合成后的语音自然度(UTMOS)甚至高于原始录音。 实际意义:为长音频(如法庭取证、医疗问诊、商业会议)的隐私保护提供了新思路和技术路线,建议在ASR-TTS匿名化流程中集成内容改写步骤。 主要局限性:依赖ASR-TTS级联管道,ASR错误可能传播;文本改写可能丢失细微语义或风格;在半知情攻击者场景下的有效性有待验证。 🏗️ 模型架构 论文提出的方法不是一个单一模型,而是一个处理流程(Pipeline),其核心是在传统的ASR-TTS语音匿名化管道中,插入一个基于LLM的文本匿名化模块。 整体流程: 原始长音频 -> ASR转录 -> LLM上下文改写 -> TTS合成 -> 匿名化长音频 各组件与数据流: 输入:原始长音频 X = (u1, u2, ..., uN),包含同一说话人的多段语音。 ASR转录:使用Whisper-medium模型将音频转录为文本序列。此步骤产生中间文本表示,是后续处理的基础。 LLM上下文改写(核心创新模块): 输入:滑动窗口内的多条转录文本。实验中窗口大小 N=8,即每次基于前8条语音的文本来改写当前语音。 处理:将窗口内的文本序列作为上下文,通过精心设计的提示词(Prompt)指导LLM进行改写。提示词指令包括:进行释义、去除或替换PII(并保持性别一致)、压缩内容、改变语音长度等。 输出:改写后的文本序列 T' = (u'1, u'2, ..., u'M),其语言风格被泛化,但保留了原始内容的语义。 TTS合成:使用XTTS模型,根据改写后的文本 T' 和一个“伪目标说话人”的声纹(由多个VoxCeleb2说话人嵌入加权混合生成),合成新的匿名化音频 X'。TTS解耦了原始声纹与内容。 输出:匿名化后的长音频 X',其声学特征和语言风格均与原始说话人 s 解耦。 关键设计选择及动机: ...

2026-04-29

Content Leakage in Librispeech and its Impact on the Privacy Evaluation of Speaker Anonymization

📄 Content Leakage in Librispeech and its Impact on the Privacy Evaluation of Speaker Anonymization #语音匿名化 #模型评估 #数据集 #鲁棒性 ✅ 7.5/10 | 前25% | #语音匿名化 | #模型评估 #数据集 | #模型评估 #数据集 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Carlos Franzreb(DFKI, 德国) 通讯作者:未说明 作者列表:Carlos Franzreb(DFKI, 德国)、Arnab Das(DFKI, 德国)、Tim Polzehl(DFKI, 德国)、Sebastian Möller(柏林工业大学, 德国) 💡 毒舌点评 亮点:论文像一名侦探,敏锐地抓住了“说话人匿名化”评估中的一个核心悖论——如果匿名化旨在隐藏身份但保留内容,而内容本身却能暴露身份,那么评估就失去了公平性。研究通过严密的实验设计,将这个潜在的“房间里的大象”清晰地揭示了出来。 短板:文章的核心贡献是提出了问题并推荐了一个更好的“考场”(EdAcc),而非提供解决“考试作弊”(内容泄露攻击)的新“防作弊技术”或新的匿名化算法。对于寻求具体算法改进的读者而言,其直接的技术增量有限。 📌 核心摘要 问题:当前评估说话人匿名化系统(隐私保护能力)的标准数据集Librispeech存在严重缺陷:由于是有声书录音,不同说话人朗读的书籍内容差异巨大,导致攻击者可以仅通过识别说话的“词汇内容”来识别身份,即使身份信息(音色等)已被完美匿名化。 方法:作者提出并验证了这一假设。他们采用了一个“完美”的匿名化器(STT-TTS流水线),它转换了所有副语言信息,只保留转录文本。通过设计仅利用音素频率、音素时长或纯音素序列的攻击者,证明了即使匿名化后,Librispeech的说话人仍能被较好地识别(EER低至32.3%),其根源就是泄露的内容。 创新:1) 首次系统性地揭示了Librispeech内容泄露对隐私评估的干扰;2) 提出并证明EdAcc(自发对话数据集)的内容泄露显著更少,是更公平的评估数据集;3) 提出利用EdAcc的丰富元数据(如口音)进行“人口统计学分段”的隐私评估(内/组间EER),以检测匿名化对不同人群的公平性。 主要实验结果:关键数据见下表。实验表明,对于STT-TTS匿名化后的Librispeech,使用音素时长特征攻击的EER(34.5%)与使用频谱图特征(34.8%)几乎相同,证实了攻击完全基于内容。而EdAcc在相同条件下的EER显著更高(45.0%),证明其内容泄露更少。 数据集 特征 原始语音EER(%) STT-TTS匿名化EER(%) Librispeech 频谱图 0.4 34.8 音素+时长 23.7 34.5 纯音素 30.4 32.3 EdAcc 频谱图 6.5 45.9 音素+时长 39.0 45.0 纯音素 42.1 48.5 实际意义:该研究对语音隐私评估社区有重要警示作用,建议在评估匿名化系统时,必须考虑或换用像EdAcc这样内容泄露更少的数据集,以获得更准确、更公平的隐私保护性能估计。其提出的分段评估方法有助于发现匿名化对不同人群的不公平性。 局限性:EdAcc数据集规模远小于Librispeech(22小时 vs 数百小时),可能带来训练数据不足的问题。论文主要诊断了问题,但并未提出直接针对“内容泄露攻击”的新防御方法。内容泄露在EdAcc中依然存在(尽管较弱),并非完全解决。 🏗️ 模型架构 本文并非提出一个新的端到端匿名化模型,而是一项针对评估方法论的分析研究。其核心“架构”是评估流程: ...

2026-04-29

ECSA: Dual-Branch Emotion Compensation for Emotion-Consistent Speaker Anonymization

📄 ECSA: Dual-Branch Emotion Compensation for Emotion-Consistent Speaker Anonymization #语音匿名化 #语音情感识别 #自监督学习 #生成模型 #语音合成 🔥 8.5/10 | 前25% | #语音匿名化 | #生成模型 | #语音情感识别 #自监督学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Chenghan Lin(天津大学人工智能学院,认知计算与应用天津市重点实验室) 通讯作者:Longbiao Wang(天津大学人工智能学院,认知计算与应用天津市重点实验室;苏州智研信息技术有限公司),Kong Aik Lee(香港理工大学) 作者列表:Chenghan Lin(天津大学)、Junjie Li(香港理工大学)、Tingting Wang(南京邮电大学通信与信息工程学院)、Meng Ge(天津大学)、Longbiao Wang(天津大学,苏州智研信息技术有限公司)、Kong Aik Lee(香港理工大学)、Jianwu Dang(中国科学院深圳先进技术研究院) 💡 毒舌点评 这篇论文的亮点在于其系统性地解构并攻克了“匿名化必然损伤情感”这一核心矛盾,提出的双分支补偿模块设计思路清晰,从数据集先验(静态)和实例残差(动态)两个层面进行修复,实验结果也确实显著优于同类工作。短板则在于其验证范围较为局限,虽然在IEMOCAP上表现优异,但整个系统在非英语环境下的鲁棒性以及面对更复杂情感(如混合情绪)的处理能力,论文未提供任何数据支撑,使得这个“通用解决方案”的宣称打上了折扣。 📌 核心摘要 要解决的问题:现有的说话人匿名化技术(如基于OHNN的方案)在有效隐藏说话人身份的同时,会严重破坏语音中的情感信息,限制了其在医疗、人机交互等情感敏感场景中的应用。 方法核心:提出一个名为ECSA的情感保留说话人匿名化框架。其核心是双分支情感补偿(D-PEC)模块:一个静态补偿器利用数据集层面的情感原型和软标签进行全局先验补偿;一个动态补偿器通过非线性网络挖掘并增强匿名化嵌入中的残差情感线索。此外,在HiFi-GAN声码器训练中引入了情感一致性损失,确保合成语音与补偿后的嵌入在情感空间对齐。 与已有方法相比新在哪里:摒弃了先前方法中易泄露说话人信息的外接情感编码器。首次提出并行处理数据集全局先验(静态分支)和单条语音残差信号(动态分支)的补偿机制。创新性地将情感一致性约束直接集成到声码器训练中,引导生成器利用情感信息。 主要实验结果:在VPC 2024基准测试上,ECSA在情感保留(UAR)上取得了最佳性能(测试集64.21%),显著超越了所有基线(如P3的57.93%)和顶级参赛系统(如T10的60.87%),同时保持了具有竞争力的匿名化强度(EER 39.69%)和内容可懂度(WER 2.52%)。消融实验证明,移除动态分支、静态分支或情感一致性损失均会导致UAR显著下降,尤其是对悲伤类情感的识别率。 实际意义:该研究为隐私保护技术在实际情感计算应用中的落地提供了可行的解决方案,有望推动语音匿名化技术从“仅保护隐私”向“隐私与效用兼得”的方向发展。 主要局限性:实验评估集中于英语数据集(VPC 2024, IEMOCAP),其在其他语言或方言上的有效性未经验证。模型训练依赖多个预训练组件(emotion2vec+, ECAPA-TDNN, HuBERT),其复杂性增加了部署难度。 🏗️ 模型架构 ECSA框架由说话人匿名化前端和情感补偿后端组成,其推理流程如下(参照论文图1): ...

2026-04-29

ICASSP 2026 - 语音匿名化 论文列表

ICASSP 2026 - 语音匿名化 共 10 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 ECSA: Dual-Branch Emotion Compensation for Emotion-Consisten 8.5分 前25% 🥈 Target Speaker Anonymization in Multi-Speaker Recordings 7.6分 前50% 🥉 Content Anonymization for Privacy in Long-Form Audio 7.5分 前25% 4. Content Leakage in Librispeech and its Impact on the Privacy 7.5分 前25% 5. Improving the Speaker Anonymization Evaluation’s Robustness 7.5分 前50% 6. ZK-VSA: Zero-Knowledge Verifiable Speaker Anonymization Leve 7.5分 前25% 7. Speaker Anonymisation for Speech-Based Suicide Risk Detectio 7.5分 前25% 8. PRSA: Preventing Malicious Speaker Recognition and Speech Sy 7.0分 前25% 9. Stream-Voice-Anon: Enhancing Utility of Real-Time Speaker An 7.0分 前25% 10. Identity Leakage Through Accent Cues in Voice Anonymisation 7.0分 前50% 📋 论文详情 🥇 ECSA: Dual-Branch Emotion Compensation for Emotion-Consistent Speaker Anonymization 🔥 8.5/10 | 前25% | #语音匿名化 | #生成模型 | #语音情感识别 #自监督学习 ...

2026-04-29

Identity Leakage Through Accent Cues in Voice Anonymisation

📄 Identity Leakage Through Accent Cues in Voice Anonymisation #语音匿名化 #隐私保护 #公平性 #口音识别 #模型评估 ✅ 7.0/10 | 前50% | #语音匿名化 | #模型评估 | #隐私保护 #公平性 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Rayane Bakari(Orange Innovation, France; EURECOM, Sophia Antipolis, France) 通讯作者:未说明 作者列表:Rayane Bakari (Orange Innovation, EURECOM), Olivier Le Blouch (Orange Innovation), Nicolas Gengembre (Orange Innovation), Nicholas Evans (EURECOM), Michele Panariello (EURECOM) 💡 毒舌点评 亮点:论文敏锐地抓住了语音匿名化评估中一个关键盲点——非时域线索(口音)的残留风险,并系统性地利用多种嵌入(时域、非时域、口音相关)和攻击场景进行量化分析,逻辑严谨,论证有力,提出的公平性问题也很有价值。 短板:对于其提出的改进方案B4*,分析略显“止步于现象”,缺乏对其内部机制(字符级条件反射如何具体抑制口音线索)的深入解构或对比消融;此外,实验部分因部分参赛系统代码不可用,导致对比不够完整,削弱了结论的普适性。 ...

2026-04-29

Improving the Speaker Anonymization Evaluation’s Robustness to Target Speakers with Adversarial Learning

📄 Improving the Speaker Anonymization Evaluation’s Robustness to Target Speakers with Adversarial Learning #语音匿名化 #对抗学习 #说话人识别 #模型评估 ✅ 7.5/10 | 前50% | #语音匿名化 | #对抗学习 | #说话人识别 #模型评估 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Carlos Franzreb(DFKI, Germany) 通讯作者:Carlos Franzreb(根据邮箱carlos.franzreb@dfki.de推断) 作者列表:Carlos Franzreb (DFKI, Germany), Arnab Das (DFKI, Germany), Tim Polzehl (DFKI, Germany), Sebastian Möller (Technical University of Berlin, Germany) 💡 毒舌点评 亮点:问题定义精准——直指现有评估框架在面对同性别目标选择时的“假高分”漏洞,并提出了一个诊断清晰(目标分类器VER)且治疗直接(对抗学习)的方案。短板:创新更偏工程优化而非理论突破,且方法对匿名化能力本身较弱的系统(如kNN-VC)几乎无效,显示其作为评估工具的普适性仍有边界。 📌 核心摘要 要解决什么问题:当前语音匿名化的隐私评估框架(由VoicePrivacy倡议定义)在使用同性别目标选择算法时,会错误地高估匿名化器的隐私保护能力。论文假设这是因为匿名化语音同时包含了源说话人和目标说话人的信息,而现有评估未考虑后者。 方法核心是什么:在说话人识别器的训练阶段,额外添加一个目标分类器,用于量化识别器对匿名化中所用“目标说话人”信息的编码程度。进一步,通过梯度反转层进行对抗训练,迫使识别器丢弃与目标说话人相关的特征,从而更专注于识别源说话人。 与已有方法相比新在哪里:不同于改进匿名化技术本身,本文创新性地从评估方法入手,通过引入目标分类器和对抗学习,增强了评估框架对目标选择算法的鲁棒性,使其能更公平地反映不同匿名化器的真实隐私性能。 主要实验结果如何: 基线对比:在VoicePrivacy 2024挑战赛(VPC24)的框架下,对于使用同性别TSA的强匿名化器(如private kNN-VC的(7-8)s配置),评估会给出接近50%的等错误率(EER),暗示完美隐私,而随机TSA下EER则低得多。 本文方法效果:如表1所示,对于private kNN-VC (7-8)s,本文方法将EER从17.4%进一步降低至15.9%(即攻击更强,隐私评估更真实);对于ASR-BNs,EER从17.4%显著降至13.9%(相对改善约20%)。同时,目标分类器验证率(VERT)从个位数/百分之三十多提升至99%以上,证明识别器成功丢弃了目标信息。 关键图表:图2显示,更大的识别器和本文方法能修正VPC24框架的偏差。图3显示基线识别器编码的目标信息远多于源信息。图4确定了对抗训练的最佳启动时机(E=6)。 Anon. Eval. EER ↓ VERS ↓ VERT ↑ (7-8)r SpAnE 19.1±0.5 90.4±0.2 4.0±0.0 Ours 19.4±1.2 89.6±0.2 99.4±0.0 (7-8)s SpAnE 17.4±0.3 87.8±0.1 8.4±0.1 Ours 15.9±0.9 87.3±0.2 99.5±0.1 (3-16)r SpAnE 13.6±1.0 80.9±0.2 10.4±0.5 Ours 12.4±0.2 80.0±0.2 99.3±0.0 (3-16)s SpAnE 11.8±0.3 77.6±0.2 17.6±0.7 Ours 10.2±0.4 76.8±0.3 99.3±0.0 ASR-BNr SpAnE 18.4±0.2 92.1±0.1 60.2±0.5 Ours 18.9±0.2 91.9±0.1 99.6±0.0 ASR-BNs SpAnE 17.4±0.6 86.0±0.1 37.3±0.4 Ours 13.9±0.4 85.4±0.1 99.5±0.0 kNN-VCr SpAnE 6.3±0.7 40.9±0.3 63.4±0.2 Ours 6.5±0.2 41.4±0.2 99.1±0.0 kNN-VCs SpAnE 5.2±0.1 38.9±0.4 63.6±1.1 Ours 5.0±0.2 39.5±0.2 98.8±0.0 实际意义是什么:为语音匿名化技术提供了一个更可靠、更公平的隐私评估基准。这有助于准确区分不同匿名化算法的优劣,指导研究和工业界开发出真正安全的技术,并可能影响未来评估标准(如VoicePrivacy挑战赛)的制定。 主要局限性是什么:该方法对匿名化效果本身较差的系统(如kNN-VC)改善不明显;论文未讨论引入额外分类器和对抗训练带来的计算开销;所验证的匿名化器和场景相对有限,其普适性有待进一步测试。 🏗️ 模型架构 本文提出的并非一个新的匿名化模型,而是一个改进的隐私评估框架。其整体架构基于VoicePrivacy 2024挑战赛的评估协议,并在其训练阶段进行了关键扩展。 ...

2026-04-29

PRSA: Preventing Malicious Speaker Recognition and Speech Synthesis Simultaneously with Adversarial Examples

📄 PRSA: Preventing Malicious Speaker Recognition and Speech Synthesis Simultaneously with Adversarial Examples #语音匿名化 #对抗样本 #说话人识别 #语音合成 #隐私保护 ✅ 7.0/10 | 前25% | #语音匿名化 | #对抗样本 | #说话人识别 #语音合成 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 -1.0 | 置信度 中 👥 作者与机构 第一作者:Shiqi Zhou(中国科学院信息工程研究所,中国科学院大学网络空间安全学院,网络空间安全防御国家重点实验室) 通讯作者:Lingcui Zhang(中国科学院信息工程研究所,网络空间安全防御国家重点实验室) 作者列表: Shiqi Zhou(中国科学院信息工程研究所,中国科学院大学网络空间安全学院,网络空间安全防御国家重点实验室) Jiayu Li(中国科学院信息工程研究所,中国科学院大学网络空间安全学院,网络空间安全防御国家重点实验室) Jiangyi Deng(浙江大学电气工程学院) Lingcui Zhang(中国科学院信息工程研究所,网络空间安全防御国家重点实验室) Jin Cao(西安电子科技大学网络与信息安全学院) Ben Niu(中国科学院信息工程研究所,网络空间安全防御国家重点实验室) 💡 毒舌点评 这篇论文精准地抓住了现有语音对抗防御研究“各自为战”的痛点,提出了一个“一石二鸟”的统一防御框架(PRSA),实验设计也相当全面,同时对抗ASV和TTS多个系统。然而,其核心创新——“同时防御”更多是目标设定上的新颖,而非技术手段上的革命性突破,且代码未开源让其声称的优越性能打了折扣,读者很难直接验证。 📌 核心摘要 问题:当前利用对抗样本保护语音隐私的方法存在缺陷,要么只能防御自动说话人验证(ASV),要么只能防御文本到语音(TTS)合成攻击,缺乏一种能同时有效防御两者的综合方案。 方法核心:提出PRSA方法,将对抗扰动生成建模为一个联合优化问题,目标是最大化ASV和TTS系统提取的说话人嵌入的偏离度,同时最小化人耳可感知失真。关键创新包括:1) 针对ASV和TTS设计了不同的嵌入损失(结合欧氏距离和角距离);2) 提出基于自然语音调制的输入增强(AM/FM)以提升扰动迁移性;3) 采用梯度高斯滤波以改善生成音频的自然度。 新意:与以往仅针对单一攻击(如V-CLOAK针对ASV, AntiFake针对TTS)的防御不同,PRSA旨在提供一体化的综合防护。其输入增强方法利用外部自然语音进行调制,而非简单的随机变换。 ...

2026-04-29

Speaker Anonymisation for Speech-Based Suicide Risk Detection

📄 Speaker Anonymisation for Speech-Based Suicide Risk Detection #语音匿名化 #语音大模型 #语音转换 #语音情感识别 #隐私保护 ✅ 7.5/10 | 前25% | #语音匿名化 | #语音转换 | #语音大模型 #语音情感识别 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Ziyun Cui (上海人工智能实验室 & 清华大学电子工程系) 通讯作者:Chang Lei (清华大学万科公共卫生与健康学院),Wen Wu (上海人工智能实验室) 作者列表:Ziyun Cui (上海人工智能实验室、清华大学电子工程系),Sike Jia (清华大学电子工程系),Yang Lin (清华大学为阳书院),Yinan Duan (清华大学万科公共卫生与健康学院),Diyang Qu (清华大学万科公共卫生与健康学院),Runsen Chen (清华大学万科公共卫生与健康学院),Chao Zhang (上海人工智能实验室、清华大学电子工程系),Chang Lei (清华大学万科公共卫生与健康学院),Wen Wu (上海人工智能实验室) 💡 毒舌点评 亮点:这是首个系统性研究语音匿名化对下游自杀风险检测任务影响的工作,其构建的多维评估框架(语音质量、说话人鉴别、语义/情感保留)和对互补性匿名化策略的验证(CosyVoice+RVC组合)具有很强的实用指导价值。短板:论文的核心下游任务(自杀风险检测)仅为一个简单的二分类,且未公开核心数据集和代码,使得其关键结论(如“接近原始性能”)的普适性和可复现性大打折扣。 📌 核心摘要 问题:利用语音自动检测青少年自杀风险具有重要潜力,但语音数据本身包含丰富的个人可识别信息。如何在保护这一脆弱群体隐私(实现说话人匿名化)的同时,保留用于风险检测的关键信息,是一个亟待研究的空白。 方法:首次系统性评估了三大类语音匿名化技术:传统信号处理(基频调整、McAdams)、基于神经声码器的内容-说话人解耦(SSL-SAS, FreeVC, SeedVC, RVC)以及基于转录文本的语音合成(SparkTTS, CosyVoice)。构建了一个包含语音质量、说话人鉴别、基频偏移、语义和情感内容保留的五维评估框架。下游检测模型采用基于Qwen2.5-Omni-7B的语音大模型,通过DoRA进行微调。 创新:首次将隐私保护的“说话人匿名化”与心理健康领域的“语音自杀风险检测”任务进行深度耦合研究;提出了一个全面的匿名化效果评估框架;通过实验揭示了不同匿名化方法保留信息的互补性(RVC擅长保留声学特征,CosyVoice擅长保留语义内容),并验证了组合策略的有效性。 结果:在1,223名中国青少年的语音数据集上,原始语音检测准确率为0.702。单一匿名化方法中,RVC表现最好(准确率0.680, EER 0.510),CosyVoice次之(准确率0.658)。将二者概率平均的集成方法达到了0.692的准确率,与原始语音仅差1%,且统计上无显著差异(p=0.677),同时保持了有效的匿名化(EER ~0.5)。 方法 检测准确率 说话人等错误率 (EER) 基频相关性 (PCC_F0) 情感相似度 语义错误率 (CER) 原始语音 0.702 0.185 - - - RVC 0.680 0.510 0.443 0.619 0.362 CosyVoice 0.658 0.497 -0.002 0.257 0.024 CosyVoice+RVC 0.692 ~0.50 (组合) (组合) (组合) 其他方法 0.625-0.644 0.248-0.512 - - - 图4: 不同匿名化方法下的自杀风险检测准确率。集成CosyVoice+RVC达到了接近原始语音的性能。 ...

2026-04-29

Stream-Voice-Anon: Enhancing Utility of Real-Time Speaker Anonymization Via Neural Audio Codec and Language Models

📄 Stream-Voice-Anon: Enhancing Utility of Real-Time Speaker Anonymization Via Neural Audio Codec and Language Models #语音匿名化 #神经音频编解码器 #自回归模型 #实时处理 #知识蒸馏 ✅ 7.0/10 | 前25% | #语音匿名化 | #神经音频编解码器 | #自回归模型 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Nikita Kuzmin (南洋理工大学,新加坡科技研究局A*STAR信息通信研究院), Songting Liu (南洋理工大学) — 论文标注为“Equal contribution”。 通讯作者:未说明 作者列表:Nikita Kuzmin(南洋理工大学,新加坡科技研究局A*STAR信息通信研究院)、Songting Liu(南洋理工大学)、Kong Aik Lee(香港理工大学)、Eng Siong Chng(南洋理工大学) 💡 毒舌点评 这篇论文的最大亮点在于成功地将当前火热的流式神经音频编解码器(NAC)与因果语言模型架构,从语音转换(VC)“搬运”到了说话人匿名化(SA)领域,并通过一系列工程技巧(如动态延迟、混合嵌入、多样化提示池)实实在在地提升了匿名化语音的“好用程度”(WER和UAR)。然而,其短板也很明显:面对一个稍微“用功”一点的攻击者(半知情攻击者),隐私保护性能就会显著下降,这暗示了其匿名化核心机制可能过于依赖表面特征变换,而非深度的身份信息剥离。 📌 核心摘要 要解决的问题:在实时流式场景下,现有的说话人匿名化方法要么在语音可用性(如识别率、情感保留)上妥协严重,要么隐私保护不足,亟需一种能平衡低延迟、高隐私和高实用性的系统。 方法核心:本文提出了Stream-Voice-Anon系统。其核心是借鉴流式语音转换(StreamVoice)的架构,采用一个基于因果Transformer的内容编码器(结合向量量化和知识蒸馏)提取与说话人无关的内容码,以及一个两阶段自回归模型(Slow-AR + Fast-AR)来生成目标声学码。为了实现匿名化,在推理阶段采用了三种策略:从提示池中随机选取并混合多个提示的语音内容、混合平均说话人嵌入与随机采样的高斯嵌入、以及动态调整延迟帧数。 与已有方法相比新在哪里:1)架构迁移:首次将先进的、基于因果语言模型的流式VC架构系统性地适配用于SA任务;2)匿名化增强:在VC架构基础上,创新性地集成了伪说话人表示采样、说话人嵌入混合和多样化提示选择等隐私保护技术;3)动态延迟:引入动态延迟训练(延迟d在1-8间随机采样),使得模型能在推理时灵活调整延迟以适应不同需求,而无需重新训练。 主要实验结果:在VoicePrivacy 2024 Challenge协议下,与之前的流式SOTA系统DarkStream相比: 实用性大幅提升:字错误率(WER)相对降低高达46%;未加权平均召回率(UAR,情感识别)相对提升高达28%。 隐私保护持平或略有下降:在“懒惰知情攻击者”场景下,等错误率(EER)与DarkStream相当(约47%);但在“半知情攻击者”场景下,EER降低了约15%,表明隐私保护有所退化。 延迟更低:实现与DarkStream可比甚至更低的延迟(180ms vs. 200ms)。 关键结果见下表: 模型 类型 WER ↓ UAR ↑ EER ↑ (lazy-informed) EER ↑ (semi-informed) DarkStream [15] (Mel+CL) 在线, 200ms 8.75 (0.0%) 34.73 (0.0%) 47.26 (0.0%) 21.83 (0.0%) Stream-Voice-Anon (cremad-emo-4rnd) 在线, 180ms 6.59 (24.7%↓) 44.59 (28.4%↑) 46.53 (1.5%↓) 18.63 (14.6%↓) Stream-Voice-Anon (cross-ds-4rnd) 在线, 180ms 4.71 (46.2%↓) 39.94 (15.0%↑) 47.72 (0.9%↑) 18.98 (13.1%↓) 实际意义:该系统在保持实时性的前提下,显著提高了匿名化语音在自动语音识别(ASR)和情感识别(SER)任务上的可用性,使其更适合用于需要保留语义和情感信息的实时通信场景(如紧急呼叫、心理咨询、法律记录)。 主要局限性:1) 面对经过针对性训练的“半知情”攻击者,隐私保护能力下降;2) 系统依赖GPU加速,无法在CPU上实时运行;3) 离线模型与在线模型之间仍存在性能差距;4) 论文未开源代码和模型,限制了复现与应用。 🏗️ 模型架构 系统整体架构如图1所示,主要包含训练和推理两个流程。 ...

2026-04-29