Connecting Layer-Wise Representation of Wavlm with Spectro-Temporal Modulation on Speaker Verification

📄 Connecting Layer-Wise Representation of Wavlm with Spectro-Temporal Modulation on Speaker Verification #说话人验证 #自监督学习 #模型分析 #可解释性 ✅ 6.0/10 | 前50% | #说话人验证 | #自监督学习 | #模型分析 #可解释性 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -1.0 | 置信度 中 👥 作者与机构 第一作者:Shao-Hsuan Chen (⋆ 国立阳明交通大学电机工程学系) 通讯作者:未明确说明(根据惯例,可能是最后作者Tai-Shih Chi或Yuan-Fu Liao) 作者列表: Shao-Hsuan Chen (⋆ 国立阳明交通大学电机工程学系) Pei-Chin Hsieh (⋆ 国立阳明交通大学电机工程学系) Yih-Liang Shen (⋆ 国立阳明交通大学电机工程学系) Tai-Shih Chi (⋆ 国立阳明交通大学电机工程学系) Yuan-Fu Liao († 国立阳明交通大学人工智能创新研究所) Chi-Han Lin (‡ 玉山金融控股股份有限公司) Juan-Wei Xu (‡ 玉山金融控股股份有限公司) (⋆、†、‡ 标记对应其后机构,机构信息已在列表中明确标注) 💡 毒舌点评 论文最大的亮点在于为理解WavLM这类黑箱模型提供了一种新颖的“神经科学视角”,通过构建频谱-时空调制特征,发现模型中间层确实编码了类似听觉皮层的选择性(如对性别相关的谐波结构敏感),这种交叉学科的分析思路值得肯定。然而,其短板也十分明显:实验设计基本局限于TIMIT数据集的性别子集分析,更像是一个初步的、小规模的现象观察,未能将这些“生物启发式”的发现与提升实际说话人验证系统(如在VoxCeleb大规模数据上的性能)建立直接联系,使得论文的实用价值和影响力打了折扣。 ...

2026-04-29

Content Anonymization for Privacy in Long-Form Audio

📄 Content Anonymization for Privacy in Long-Form Audio #语音匿名化 #大语言模型 #说话人验证 #端到端 ✅ 7.5/10 | 前25% | #语音匿名化 | #大语言模型 | #说话人验证 #端到端 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Cristina Aggazzotti(约翰霍普金斯大学人类语言技术卓越中心) 通讯作者:未说明 作者列表:Cristina Aggazzotti(约翰霍普金斯大学人类语言技术卓越中心,电子邮箱 caggazz1@jhu.edu),Ashi Garg(约翰霍普金斯大学人类语言技术卓越中心,电子邮箱 agarg22@jhu.edu),Zexin Cai(约翰霍普金斯大学计算机系,电子邮箱 zcai21@jhu.edu),Nicholas Andrews(约翰霍普金斯大学人类语言技术卓越中心及计算机系,电子邮箱 noa@jhu.edu) 💡 毒舌点评 本文敏锐地指出了当前语音匿名化研究在长音频场景下的“皇帝新衣”——只藏声音不改说话方式等于白藏,并提出了用LLM改写文本来釜底抽薪的思路,是这个小众但重要的领域一次扎实的“问题-方案”闭环。不过,文中仅拿出了几个现成LLM模型进行“平A”,并未深入探究文本风格改写的具体机制与边界(比如对口语化、情感色彩的保持能力),在实验深度上略显保守。 📌 核心摘要 问题:现有语音匿名化技术(如VoicePrivacy Challenge)主要针对短音频,仅通过声学处理隐藏说话人身份。然而在长音频(如电话、会议)中,同一说话人的多条语音所展现出的词汇、句式等语言风格会成为强大的生物特征旁信道,使攻击者即使在声音被完全转换后仍能重新识别说话人。 方法核心:提出在自动语音识别(ASR)和语音合成(TTS)的级联管道中,引入基于大语言模型(LLM)的上下文文本改写步骤。该方法不是逐句改写,而是采用滑动窗口,结合前文语境对多条转录文本进行联合改写,旨在消除说话人特有的语言风格,同时保留原始语义。 创新性:这是首次系统性地评估LLM文本改写作为防御“基于内容的攻击”的有效性的研究。与现有仅处理声学信号或简单掩盖PII的方法不同,该方案直接从攻击者依赖的语言内容特征入手。 主要结果:实验在Fisher电话对话语料库上进行。结果显示,仅进行语音匿名化时,内容攻击的等错误率(EER)随可用语音数量增加而显著下降(攻击更准),证明语言内容泄露了身份。而采用所提的内容匿名化(特别是上下文联合改写)后,内容攻击的EER能稳定在50%左右(接近随机猜测)。具体而言,使用GPT-5和Gemma-3-4B模型进行段改写,对内容攻击的防御效果优于逐句改写(GPT-4o-mini)。语义相似度测试(如DTW)表明改写后内容得以保留。合成后的语音自然度(UTMOS)甚至高于原始录音。 实际意义:为长音频(如法庭取证、医疗问诊、商业会议)的隐私保护提供了新思路和技术路线,建议在ASR-TTS匿名化流程中集成内容改写步骤。 主要局限性:依赖ASR-TTS级联管道,ASR错误可能传播;文本改写可能丢失细微语义或风格;在半知情攻击者场景下的有效性有待验证。 🏗️ 模型架构 论文提出的方法不是一个单一模型,而是一个处理流程(Pipeline),其核心是在传统的ASR-TTS语音匿名化管道中,插入一个基于LLM的文本匿名化模块。 整体流程: 原始长音频 -> ASR转录 -> LLM上下文改写 -> TTS合成 -> 匿名化长音频 各组件与数据流: 输入:原始长音频 X = (u1, u2, ..., uN),包含同一说话人的多段语音。 ASR转录:使用Whisper-medium模型将音频转录为文本序列。此步骤产生中间文本表示,是后续处理的基础。 LLM上下文改写(核心创新模块): 输入:滑动窗口内的多条转录文本。实验中窗口大小 N=8,即每次基于前8条语音的文本来改写当前语音。 处理:将窗口内的文本序列作为上下文,通过精心设计的提示词(Prompt)指导LLM进行改写。提示词指令包括:进行释义、去除或替换PII(并保持性别一致)、压缩内容、改变语音长度等。 输出:改写后的文本序列 T' = (u'1, u'2, ..., u'M),其语言风格被泛化,但保留了原始内容的语义。 TTS合成:使用XTTS模型,根据改写后的文本 T' 和一个“伪目标说话人”的声纹(由多个VoxCeleb2说话人嵌入加权混合生成),合成新的匿名化音频 X'。TTS解耦了原始声纹与内容。 输出:匿名化后的长音频 X',其声学特征和语言风格均与原始说话人 s 解耦。 关键设计选择及动机: ...

2026-04-29

Cross-Architecture Knowledge Distillation of WavLM for Lightweight Speaker Verification

📄 Cross-Architecture Knowledge Distillation of WavLM for Lightweight Speaker Verification #说话人验证 #知识蒸馏 #自监督学习 #模型压缩 #语音表示学习 🔥 8.0/10 | 前25% | #说话人验证 | #知识蒸馏 | #自监督学习 #模型压缩 学术质量 6.5/7 | 选题价值 7.0/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Jungwoo Heo (University of Seoul, Republic of Korea) 通讯作者:Ha-Jin Yu (University of Seoul, Republic of Korea) 作者列表:Jungwoo Heo (University of Seoul, Republic of Korea)、Hyun-seo Shin (University of Seoul, Republic of Korea)、Chan-yeong Lim (University of Seoul, Republic of Korea)、Kyowon Koo (University of Seoul, Republic of Korea)、Seung-bin Kim (University of Seoul, Republic of Korea)、Jisoo Son (University of Seoul, Republic of Korea)、Kyung Wha Kim (Supreme Prosecutors’ Office Republic of Korea)、Ha-Jin Yu (University of Seoul, Republic of Korea) 💡 毒舌点评 这篇论文精准地切中了当前自监督语音模型“大而不能用”的痛点,其提出的任务引导学习(TGL)和代理对齐蒸馏(PAD)组合拳,确实为异构架构间的知识传递提供了系统化的解决方案,在VoxCeleb和VoxSRC等标准基准上取得了令人印象深刻的性能提升。然而,实验部分主要围绕其自身方法的变体展开,与当前最前沿的、同样专注于轻量化或高效说话人验证的最新方法(如2025年的SEED, LAP等)的横向对比深度稍显不足,使得其“最佳”地位的论证链条不够完整。 ...

2026-04-29

Cross-Domain Contrastive Learning with Dynamic Threshold Calibration for Source Speaker Tracing

📄 Cross-Domain Contrastive Learning with Dynamic Threshold Calibration for Source Speaker Tracing #说话人验证 #对比学习 #音频安全 #跨领域 #领域适应 🔥 8.0/10 | 前25% | #说话人验证 | #对比学习 | #音频安全 #跨领域 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yitian Ding(国际关系学院,北京,中国) 通讯作者:Yansen Zhou(国际关系学院,北京,中国)论文中标注为通讯作者 作者列表:Yitian Ding(国际关系学院)、Shengchen Li(西交利物浦大学,苏州,中国)、Yansen Zhou(国际关系学院) 💡 毒舌点评 论文的亮点在于将“跨域对齐”、“类内紧致”与“置信度校准”三个目标巧妙地融为一个统一的训练框架(ACC Loss),并配合评估时的动态阈值校准(Centered AS-Norm),形成了一套完整的解决方案,其设计思路和消融实验都做得相当清晰。但略显遗憾的是,论文声称方法“即插即用、数据高效”,却未能开源代码或提供可直接运行的完整复现材料,这限制了学术界对其进行快速验证和在此基础上改进的可能性。 📌 核心摘要 本文针对语音转换(VC)对自动说话人验证(ASV)构成的安全威胁,研究了“源说话人追踪(SST)”任务,即从转换后的语音中识别原始说话人。其核心问题是转换语音与原始语音之间存在领域偏移,且转换语音内部的说话人特征呈现多峰结构,导致特征分布不稳定和固定阈值失效。为此,论文提出了一种“跨域对比学习与动态阈值校准”的统一范式。在训练阶段,提出联合优化ACC损失函数,它结合了对齐损失(InfoNCE,用于跨域对齐)、紧致性损失(IS-CDR,用于减少类内方差)和置信度损失(质量回归,用于质量感知校准)。在评估阶段,采用Centered AS-Norm(全局中心化+自适应归一化)进行分布感知的动态评分校准。在SSTC 2024评测基准上,所提系统在16个测试集上的平均等错误率(EER)为16.509%,超越了挑战赛冠军系统(16.788%),并将官方基线(20.613%)降低了4.104个百分点。消融实验证明,所提出的训练损失和评估后处理机制对性能提升均有显著贡献。该方法的主要贡献在于提供了一个完整的训练-评估闭环,以增强SST任务的跨域泛化能力和分数可校准性。其局限性在于评估场景局限于单一基准,且未公开代码和模型。 🏗️ 模型架构 本文模型的整体框架如图2所示(注:由于未提供图片URL,此处仅基于文字描述)。该方法建立在一个深度嵌入学习框架上,核心是一个MFA-Conformer嵌入提取器(基于Conformer架构)。其完整流程如下: 输入:标准的对数梅尔滤波器组特征(80维),并进行均值归一化。 嵌入提取:MFA-Conformer编码器处理输入特征,输出三个部分: 说话人嵌入(e):256维向量,用于最终的说话人验证。 投影向量(z):128维向量,用于计算对比损失(InfoNCE)。 质量分数(q):一个标量,用于质量回归损失,预测嵌入的可靠性。 训练阶段损失计算:编码器的输出用于计算联合的ACC损失(LInfoNCE + α LQuality + β LIS-CDR)。 评估阶段后处理:推理时,对说话人嵌入应用两阶段后处理: 全局中心化:e’ = e - μ_global,其中μ_global是当前评估集嵌入的均值。 AS-Norm(自适应归一化):利用当前评估集(无标签)构建同分布样本集(cohort),对余弦相似度分数进行对称归一化,以动态校准分数和阈值。 输出:校准后的相似度分数,用于判断语音对是否来自同一源说话人。 该设计的关键在于,训练时通过投影头和对比损失显式地对齐和压缩来自不同域(转换语音与自然语音)的同类说话人嵌入,而评估时通过无监督的统计归一化来适应未知的VC方法导致的分布偏移。 💡 核心创新点 联合的ACC损失函数设计:将三个互补的目标(InfoNCE用于跨域对齐与类间分离、IS-CDR用于类内紧致与分布平滑、质量回归用于样本级置信度建模)统一在一个轻量级的损失函数中。这超越了之前仅使用转换语音进行监督或仅使用单一损失(如AAM-Softmax)的方法。 “对齐-紧致-校准”的闭环范式:不仅提出了新的训练目标,还将其与评估时的动态校准方法(Centered AS-Norm)紧密结合。训练使嵌入变得“可对齐”和“可校准”,评估则执行“对齐”和“校准”,形成一个协同增强的完整流程。 分布感知的动态阈值校准:在评估阶段,使用当前评估集自身的统计量(全局中心化和AS-Norm的均值/方差)来重新标定���数尺度和决策阈值,使其能适应未知的VC方法造成的域偏移,而非依赖固定的训练集阈值。 🔬 细节详述 训练数据:使用SSTC 2024挑战赛数据集。源说话人数据集:LibriSpeech(train-clean分割,1172名说话人)。转换后语音数据集:由8种不同VC方法生成的语音(Train-1到Train-8)。数据增强包括:MUSAN噪声(0-20dB SNR)、基于RIR的混响、随机裁剪(至7.5秒),每种增强以0.8的概率独立应用。 损失函数:联合损失LACC = LInfoNCE + 1.0 LQuality + 1×10^-2 LIS-CDR。其中,InfoNCE温度τ=0.07;IS-CDR计算每个mini-batch内同说话人所有样本(包括转换和自然语音)到其质心的平均平方距离。 训练策略:优化器AdamW(学习率1×10^-4,权重衰减1×10^-2)。训练采用5个epoch的warmup和余弦衰减调度器。梯度累积步数为4。总训练epoch数为40。每个mini-batch包含16名说话人,每人4句转换语音作为锚点(共64个锚点),并为每个锚点额外采样一句来自LibriSpeech的同一说话人的自然语音作为正样本。 关键超参数:嵌入维度256,投影头维度128。AS-Norm cohort大小通过消融实验确定为200。 训练硬件:单卡NVIDIA RTX 3090 (24GB),完整训练约8小时。 推理细节:使用余弦相似度计算原始分数,然后应用对称的AS-Norm进行校准。评估集的统计量(全局均值、AS-Norm的cohort统计量)在当前分割集上即时计算,无需标签,确保评估协议无泄漏。 其他:随机种子固定为123456,使用PyTorch实现。 📊 实验结果 主要在SSTC 2024挑战赛数据集上评估,使用等错误率(EER)作为主要指标。实验结果如下: ...

2026-04-29

Curriculum Learning with Contrastive Loss for Lightweight Speaker Verification

📄 Curriculum Learning with Contrastive Loss for Lightweight Speaker Verification #说话人验证 #对比学习 #课程学习 #知识蒸馏 ✅ 6.5/10 | 前25% | #说话人验证 | #对比学习 #课程学习 | #对比学习 #课程学习 学术质量 7.0/7 | 选题价值 6.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jin Li(香港理工大学电机工程系) 通讯作者:未说明 作者列表:Jin Li(香港理工大学电机工程系;布尔诺理工大学Speech@FIT)、Man-Wai Mak(香港理工大学电机工程系)、Johan Rohdin(布尔诺理工大学Speech@FIT)、Oldřich Plchot(布尔诺理工大学Speech@FIT) 💡 毒舌点评 亮点:将课程学习思想精巧地应用于对比学习的负样本选择,并通过一个“教师网络”来量化和迁移“难度”,这一设计既直观又有效,避免了手动筛选困难负样本的武断。短板:论文的实验部分略显“安全牌”,主要验证了在VoxCeleb单一数据集上的有效性,且基线模型(如ECAPA-TDNN的轻量化版本)未得到充分讨论,使得“state-of-the-art”的宣称需要读者自行查阅更多文献才能完全确认。 📌 核心摘要 解决的问题:在资源受限的移动设备上部署说话人验证系统时,需要在模型轻量化(低参数量、低计算量)与高精度之间取得平衡。现有轻量级模型性能仍有提升空间,而标准对比学习在训练中对负样本的选择缺乏策略。 方法核心:提出CurriNeg-AMS训练框架。核心是CurriNeg课程策略:使用一个预训练的教师网络评估所有负样本相对于锚点的难度(余弦相似度),并通过一个节奏函数控制,在训练过程中由易到难地将负样本引入学生的对比学习损失(LCurriNeg)计算。同时,结合AM-Softmax损失(LCurriNeg-AMS)以增强类内紧凑性和类间可分性。 创新之处:不同于传统对比学习随机或基于启发式选择负样本,本文首次将课程学习系统地引入负样本选择,并通过教师-学生架构实现难度评估的迁移。这种“难度感知”的渐进式学习更符合认知规律,提升了学习效率。 主要实验结果:在VoxCeleb1测试集上,基于Fast ResNet34(1.4M参数)的CurriNeg-AMS将EER从基线的2.28%降低至1.82%(相对降低20.2%),优于包括Angular Prototypical loss在内的多种先进方法。消融实验表明,线性节奏函数效果最佳,且课程学习策略持续优于无课程的监督对比学习。 学生网络 训练集 损失函数 EER (%) minDCF TDNN Vox1-dev Softmax 4.92 0.327 TDNN Vox1-dev AM-Softmax 4.18 0.267 TDNN Vox1-dev AAM-Softmax 4.13 0.279 TDNN Vox1-dev CurriNeg-AMS (ours) 3.82 0.283 Fast ResNet34 Vox2-dev AM-Softmax 2.80 – Fast ResNet34 Vox2-dev AAM-Softmax 2.37 – Fast ResNet34 Vox2-dev Triplet 2.71 – Fast ResNet34 Vox2-dev GE2E 2.37 – Fast ResNet34 Vox2-dev Prototypical 2.32 – Fast ResNet34 Vox2-dev Angular Prototypical 2.22 – Fast ResNet34 Vox2-dev CurriNeg-AMS (ours) 1.82 0.131 表2:不同损失函数在TDNN和Fast ResNet34上的性能对比(论文Table 2) 实际意义:为训练高效、高精度的轻量级说话人验证模型提供了一个新颖且有效的训练框架,有助于推动说话���识别技术在智能手机、IoT设备等端侧的广泛应用。 ...

2026-04-29

Distilling Attention Knowledge for Speaker Verification

📄 Distilling Attention Knowledge for Speaker Verification #说话人验证 #知识蒸馏 #注意力机制 #语音预训练模型 🔥 8.0/10 | 前25% | #说话人验证 | #知识蒸馏 | #注意力机制 #语音预训练模型 学术质量 7.5/7 | 选题价值 1.5/2 | 复现加成 -1.0 | 置信度 高 👥 作者与机构 第一作者: Zezhong Jin(香港理工大学) 通讯作者: 未明确说明(从作者列表和单位推断,可能为Man-Wai Mak或Kong Aik Lee,但论文未明确标注) 作者列表: Zezhong Jin¹, Shujie Liu², Zhe Li³, Chong-Xin Gan¹, Zilong Huang¹, Man-Wai Mak¹, Kong Aik Lee¹ 香港理工大学 (The Hong Kong Polytechnic University) 微软亚洲研究院 (Microsoft Research Asia) 香港大学 (The University of Hong Kong) 💡 毒舌点评 亮点: 论文巧妙地将主流ASV模型(ECAPA-TDNN)中已有的SE模块和注意力池化层作为“注意力图”的来源,无需额外设计复杂的注意力机制,这种“就地取材”的工程思维很聪明,也让方法更具通用性和可移植性。 短板: 开源信息严重缺失,对于一篇强调“方法有效性”和“复现价值”的会议论文而言,没有代码和模型权重几乎是“反向操作”,极大削弱了其对社区的实际贡献度。 ...

2026-04-29

Enhancing Speaker Verification with w2v-BERT 2.0 and Knowledge Distillation Guided Structured Pruning

📄 Enhancing Speaker Verification with w2v-BERT 2.0 and Knowledge Distillation Guided Structured Pruning #说话人验证 #预训练 #知识蒸馏 #模型压缩 #语音大模型 ✅ 7.5/10 | 前25% | #说话人验证 | #知识蒸馏 | #预训练 #模型压缩 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ze Li(武汉大学计算机科学学院, 苏州多模态智能系统市重点实验室) 通讯作者:Ming Li(武汉大学人工智能学院, 昆山杜克大学, 苏州多模态智能系统市重点实验室) 作者列表:Ze Li(武汉大学计算机科学学院, 苏州多模态智能系统市重点实验室)、Ming Cheng(武汉大学计算机科学学院, 苏州多模态智能系统市重点实验室)、Ming Li(武汉大学人工智能学院, 昆山杜克大学, 苏州多模态智能系统市重点实验室) 💡 毒舌点评 这篇论文是一次漂亮的大模型“落地”工程实践,成功地将w2v-BERT 2.0这个语言学预训练巨兽改造为说话人验证的利器,并达到了SOTA性能,同时不忘通过剪枝为实际部署铺路,展现了完整的研究闭环。然而,其核心创新更偏向于“技术选型与系统集成”的优秀范例,而非底层算法的突破,更像是用现有最好的工具(MFA, LoRA, 结构化剪枝)精心组装了一台高性能机器,虽然结果亮眼,但缺少让同行惊呼“原来可以这样”的独创性构思。 📌 核心摘要 问题:现有说话人验证(SV)系统面临标注数据不足与模型复杂度之间的矛盾,且大规模预训练模型(PTM)的参数量过大,不利于实际部署。 核心方法:首次将基于Conformer架构、在4.5百万小时多语言数据上自监督训练的w2v-BERT 2.0 PTM用于SV任务。采用多尺度特征聚合(MFA)结构结合Layer Adapter处理PTM多层输出,并使用LoRA进行高效微调。为降低部署成本,应用知识蒸馏指导的结构化剪枝技术压缩PTM。 创新点:将w2v-BERT 2.0引入SV;提出“MFA + Layer Adapter + LoRA”的高效适配框架;实现了基于知识蒸馏的结构化剪枝,大幅压缩模型且性能损失极小。 主要结果:在Vox1-O测试集上达到0.12% EER,在Vox1-H上达到0.55% EER,超越了表1中列出的多种前沿方法。通过剪枝将模型参数减少约80%,在Vox1-O上的EER仅从0.14%增加至0.18%,性能退化仅0.04%。 实际意义:为使用超大型预训练模型解决SV问题提供了有效方案,并展示了如何将模型压缩至实际可用的规模,平衡了性能与效率。 局限性:尽管性能优越,但模型初始参数量巨大(约580M),剪枝后的模型(124M)依然较传统SV模型庞大。研究未深入探讨w2v-BERT 2.0中Conformer架构相比Transformer在SV任务上的具体优势机制,且未提供在其他更具挑战性场景(如极端噪声、跨语言)下的全面评估。 🏗️ 模型架构 论文的整体架构旨在将大规模预训练模型w2v-BERT 2.0适配到说话人验证任务,其核心流程如下: ...

2026-04-29

Face-Voice Association with Inductive Bias for Maximum Class Separation

📄 Face-Voice Association with Inductive Bias for Maximum Class Separation #说话人验证 #跨模态 #归纳偏置 #对比学习 #基准测试 ✅ 7.0/10 | 前25% | #说话人验证 | #归纳偏置 | #跨模态 #对比学习 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文作者列表未按顺序标注第一作者,但根据惯例,Marta Moscati排在首位) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Marta Moscati¹, Oleksandr Kats¹, Mubashir Noman², Muhammad Zaigham Zaheer², Yufang Hou³, Markus Schedl¹’⁴, Shah Nawaz¹ ¹ Johannes Kepler University Linz, Austria ² MBZUAI, UAE ³ IT:U Interdisciplinary Transformation University Austria ⁴ Linz Institute of Technology, Austria 💡 毒舌点评 亮点:论文巧妙地将一个原本用于单模态分类任务的“最大类分离归纳偏置”技术迁移并适配到了多模态的人脸-语音关联领域,且通过扎实的消融实验证明了它与正交约束损失结合后的“1+1>2”效果,思路新颖且有效。 短板:归纳偏置矩阵的构造(公式1)需要预先知道总说话人数量(Ns),这可能导致其在动态或开放世界的说话人识别场景中应用受限,论文未探讨这一关键限制的缓解方案。 ...

2026-04-29

Hybrid Pruning: In-Situ Compression of Self-Supervised Speech Models for Speaker Verification and Anti-Spoofing

📄 Hybrid Pruning: In-Situ Compression of Self-Supervised Speech Models for Speaker Verification and Anti-Spoofing #说话人验证 #语音伪造检测 #自监督学习 #结构化剪枝 #低资源 🔥 8.0/10 | 前25% | #说话人验证 | #自监督学习 | #语音伪造检测 #结构化剪枝 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junyi Peng (Brno University of Technology, Speech@FIT) 通讯作者:未说明 作者列表:Junyi Peng¹, Lin Zhang², Jiangyu Han¹, Oldřich Plchot¹, Johan Rohdin¹, Themos Stafylakis³,⁴,⁵, Shuai Wang⁶, Jan Černocký¹ (1. Speech@FIT, Brno University of Technology, Czechia; 2. Johns Hopkins University, USA; 3. Athens University of Economics and Business; 4. Omilia; 5. Archimedes/Athena R.C., Greece; 6. Nanjing University, China) 💡 毒舌点评 亮点在于优雅地将模型剪枝与任务微调合并为单阶段训练,省去了复杂的多步流水线,且在多个基准上效果拔群,甚至能充当正则化提升泛化能力;短板在于对“为什么学出的剪枝模式是这样的”这一现象的理论解释稍显薄弱,更多是现象描述而非机理剖析。 ...

2026-04-29

ICASSP 2026 - 说话人验证 论文列表

ICASSP 2026 - 说话人验证 共 10 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Cross-Domain Contrastive Learning with Dynamic Threshold Cal 8.0分 前25% 🥈 Hybrid Pruning: In-Situ Compression of Self-Supervised Speec 8.0分 前25% 🥉 Distilling Attention Knowledge for Speaker Verification 8.0分 前25% 4. Cross-Architecture Knowledge Distillation of WavLM for Light 8.0分 前25% 5. Triage Knowledge Distillation for Speaker Verification 7.5分 前25% 6. Enhancing Speaker Verification with w2v-BERT 2.0 and Knowled 7.5分 前25% 7. Face-Voice Association with Inductive Bias for Maximum Class 7.0分 前25% 8. Impact of Phonetics on Speaker Identity in Adversarial Voice 7.0分 前50% 9. Curriculum Learning with Contrastive Loss for Lightweight Sp 6.5分 前25% 10. Connecting Layer-Wise Representation of Wavlm with Spectro-T 6.0分 前50% 📋 论文详情 🥇 Cross-Domain Contrastive Learning with Dynamic Threshold Calibration for Source Speaker Tracing 🔥 8.0/10 | 前25% | #说话人验证 | #对比学习 | #音频安全 #跨领域 ...

2026-04-29