Automatic Estimation of Speaker Diarization Error Rate Based on Features of Audio Quality and Speaker Discriminability

📄 Automatic Estimation of Speaker Diarization Error Rate Based on Features of Audio Quality and Speaker Discriminability #说话人分离 #说话人日志 #模型评估 #语音活动检测 #聚类 ✅ 7.5/10 | 前25% | #说话人分离 | #说话人日志 | #模型评估 #语音活动检测 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Kenkichi Ishizuka (RevComm Inc.) 通讯作者:未说明 作者列表:Kenkichi Ishizuka (RevComm Inc., Tokyo, Japan), Chang Zeng (RevComm Inc., Tokyo, Japan), Masaki Ono (RevComm Inc., Tokyo, Japan), Taiichi Hashimoto (RevComm Inc., Tokyo, Japan) 💡 毒舌点评 本文的亮点在于它精准地识别并填补了“说话人日志误差率(DER)自动估计”这一实用但被忽视的研究空白,并设计了一个逻辑自洽、实验充分的框架来证明其可行性。其短板则在于方法创新性略显不足,核心贡献是启发式地组合了现有特征(VAD差异、DNSMOS、聚类指标)和回归模型,更像一个精心设计的工程解决方案,而非在理论或模型上有深层突破。 ...

2026-04-29

Dual Data Scaling for Robust Two-Stage User-Defined Keyword Spotting

📄 Dual Data Scaling for Robust Two-Stage User-Defined Keyword Spotting #语音活动检测 #多任务学习 #对比学习 #零样本 ✅ 7.5/10 | 前25% | #语音活动检测 | #多任务学习 | #对比学习 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhiqi Ai(上海大学) 通讯作者:Yongjin Zhou(上海大学)、Shugong Xu(西安交通大学利物浦大学) 作者列表:Zhiqi Ai(上海大学),Han Cheng(上海大学),Yuxin Wang(上海大学),Shiyi Mu(上海大学),Yongjin Zhou(上海大学),Shugong Xu(西安交通大学利物浦大学) 💡 毒舌点评 亮点:提出了一种清晰的两阶段(检测+验证)框架,并创新性地将“双数据扩展”策略应用于两阶段模型的不同部分(声学模型和匹配器),在LibriPhrase-Hard子集上取得了显著优于现有方法的性能。短板:论文第二阶段中“轻量级注册模块”(nn.Embedding)与“跨模态对齐”的具体实现和有效性论证略显简略,且训练策略、超参数等关键复现信息缺失,降低了其作为完整工作发表的说服力。 📌 核心摘要 要解决的问题:在用户自定义关键词检测任务中,现有基于零样本或微调的方法在区分易混淆词和处理边界不精确、误报率高的问题上存在不足。 方法核心:提出DS-KWS,一个两阶段框架。第一阶段:使用基于CTC的声学模型和流式音素搜索模块定位候选片段。第二阶段:使用基于查询文本(QbyT)的音素匹配器在音素级和话语级进行验证。 新在哪里(创新):1) 提出“双数据扩展”策略:将第一阶段声学模型的训练数据从460小时扩展到1460小时,并将第二阶段匹配器的训练锚点类别从约78k扩展到155k,以分别增强模型的鲁棒性和区分力。2) 设计了轻量级的音素匹配器架构,采用简单的nn.Embedding进行文本注册,降低了复杂度。 主要实验结果:在LibriPhrase-Hard数据集上,DS-KWS-M2取得6.13% EER和97.85% AUC,显著优于对比方法。在Hey-Snips数据集上,实现零样本性能,召回率达99.80%(在1次/小时误报率下)。关键实验数据见表1、表2、表3和表4。 表1:LibriPhrase数据集对比实验结果 方法 参数量 AUC (%) ↑ EER (%) ↓ LPH LPE LPH LPE CMCD [1] 0.7M 73.58 96.70 32.90 8.42 EMKWS [16] 3.7M 84.21 97.83 23.36 7.36 CED [17] 3.6M 92.70 99.84 14.40 1.70 SLiCK [19] 0.6M 94.90 99.82 11.10 1.78 MM-KWS-T [3] 3.9M 95.36 99.94 10.41 0.82 MM-KWS-AT [3] 3.9M 96.25 99.95 9.30 0.68 DS-KWS-M2 4.1M 97.85 99.98 6.13 0.45 表2:双数据扩展实验结果 ...

2026-04-29

EdgeSpot: Efficient and High-Performance Few-Shot Model for Keyword Spotting

📄 EdgeSpot: Efficient and High-Performance Few-Shot Model for Keyword Spotting #语音活动检测 #知识蒸馏 #自监督学习 #少样本 #边缘计算 ✅ 7.5/10 | 前25% | #语音活动检测 | #知识蒸馏 | #自监督学习 #少样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Oguzhan Buyuksolak (Analog Devices, Istanbul, Turkey) 通讯作者:未说明 作者列表:Oguzhan Buyuksolak (Analog Devices, Istanbul, Turkey)、Alican Gok (Analog Devices, Istanbul, Turkey)、Osman Erman Okman (Analog Devices, Istanbul, Turkey) 💡 毒舌点评 这篇论文的亮点在于其工程上的“务实”——它没有追求复杂的新奇架构,而是像组装精密仪器一样,将PCEN、Fused Block和轻量级自注意力这三个针对性优化组合在一起,精准地提升了边缘少样本场景下的关键性能(低FAR下的准确率)。但它的短板也同样明显:消融实验严重缺失,读者无法判断这三板斧中哪一斧头最关键,以及它们组合是否真的有“1+1>2”的效果,这在一定程度上削弱了其学术贡献的说服力。 📌 核心摘要 这篇论文旨在解决传统关键词识别系统依赖大量数据和计算资源、难以在边缘设备上灵活适应新关键词的问题。其核心方法是提出EdgeSpot模型,一个专为边缘设备设计的高效少样本关键词识别模型。它以BC-ResNet为骨干,并引入了三个关键改进:一个可训练的PCEN前端以提升跨领域泛化能力;融合早期阶段的Fused BC-ResBlock以简化计算并优化训练;以及一个轻量的时序自注意力层以捕捉长程依赖。在训练方法上,采用自监督预训练的Wav2Vec2.0作为教师模型,通过知识蒸馏和子中心ArcFace损失来训练EdgeSpot学生模型。 ...

2026-04-29

EEND-SAA: Enrollment-Less Main Speaker Voice Activity Detection Using Self-Attention Attractors

📄 EEND-SAA: Enrollment-Less Main Speaker Voice Activity Detection Using Self-Attention Attractors #语音活动检测 #端到端 #说话人分离 #流式处理 ✅ 7.5/10 | 前25% | #语音活动检测 | #端到端 | #说话人分离 #流式处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明(论文按顺序列出 Wen-Yung Wu, Pei-Chin Hsieh, Tai-Shih Chi,但未明确标注) 通讯作者:未说明(论文中未提供邮箱或标注通讯作者) 作者列表:Wen-Yung Wu(台湾阳明交通大学电气与计算机工程系),Pei-Chin Hsieh(台湾阳明交通大学电气与计算机工程系),Tai-Shih Chi(台湾阳明交通大学电气与计算机工程系) 💡 毒舌点评 亮点在于明确提出了“无注册主说话人VAD”这个在实际场景中更可行的任务定义,并通过设计双吸引子机制巧妙地将其融入端到端框架,实现了对背景说话人的抑制。短板在于,该工作的创新主要是对现有EEND架构的“改造”和“特化”,而非提出全新的、更强大的主说话人检测范式,且缺乏开源的模型权重和完整代码,限制了社区的快速跟进与验证。 📌 核心摘要 问题:传统VAD仅检测有无语音,目标说话人VAD(TS-VAD)虽能检测特定说话人但依赖预先注册语音,这在会议、客服等开放场景中不实用。论文旨在解决“无注册主说话人VAD(MS-VAD)”问题,即在未知说话人和存在背景干扰的场景下,仅凭语音的连续性和音量等线索,实时识别出主要说话人的活动。 方法核心:提出EEND-SAA框架。该框架在SA-EEND(基于Transformer的端到端神经说话人日志化)基础上进行扩展,核心创新是引入双自注意力吸引子(Dual Self-Attention Attractors)模块。该模块将Transformer的注意力头分为两组,分别专注于生成主说话人和背景说话人的吸引子表征,通过比较这些吸引子与帧级嵌入来输出说话人活动概率。同时,通过因果掩码和键值缓存实现流式处理。 新意:相较于TS-VAD,本方法无需注册语音;相较于SA-EEND等说话人日志化方法,本方法直接输出“主说话人”标签而非所有说话人标签,且通过双吸引子设计增强了主/背景说话人的区分度,并具备了实时处理能力。 主要实验结果:在合成的多说话人LibriSpeech混合数据集上,EEND-SAA(双吸引子)将主说话人DER(DERmain)从SA-EEND基线的6.63%降至3.61%,主说话人F1(F1main)从0.9667提升至0.9818。关键对比结果如表3所示: 模型 DER (%) DERmain (%) F1main SA-EEND [18] (w/ main speaker labels) N/A 6.63 0.9667 EEND-SAA (dual) 7.46 3.61 0.9818 实际意义:为会议记录、实时转录、智能助手等需要区分主要发言人的应用场景,提供了一种无需预先登记、可实时运行的语音活动检测解决方案。 主要局限性:模型性能高度依赖于主说话人相对于背景说话人的“连续性”和“音量”优势(如实验部分所示),在主说话人语音断续或背景音量较大时性能会下降;合成数据与真实复杂场景可能存在差距;未提供开源模型权重和完整代码。 🏗️ 模型架构 EEND-SAA的整体架构如图1所示,是一个端到端的流式处理框架。 ...

2026-04-29

Enhancing Dialogue-Related Speech Tasks with Generated Spoken Dialogues

📄 Enhancing Dialogue-Related Speech Tasks with Generated Spoken Dialogues #语音对话系统 #数据增强 #语音大模型 #说话人分离 #语音活动检测 ✅ 6.5/10 | 前25% | #语音对话系统 | #数据增强 | #语音大模型 #说话人分离 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Haitian Lu(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学) 通讯作者:Gaofeng Cheng(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学) 作者列表:Haitian Lu(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学)、Zhihao Bai(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学)、Yukun Liu(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学)、Xuyang Wang(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学)、Gaofeng Cheng(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学)、Yonghong Yan(中国科学院声学研究所语音声学与内容理解重点实验室;中国科学院大学) 💡 毒舌点评 这篇论文的亮点在于思路清晰,将“生成可控对话数据”这一上游能力与多个下游具体任务紧密结合,并系统验证了其作为数据增强工具的实用价值,尤其是在改善VAD的对话级错误率(CDER)上效果显著。短板在于,其“增强”的根基——生成模型SLIDE是前作,本文的增量贡献更多是应用层面的实验验证;同时,生成数据的说话人多样性不足(仅120人)导致EEND的说话人错误率居高不下���暴露了当前生成对话数据用于复杂说话人场景时的核心瓶颈。 📌 核心摘要 解决的问题:大语言模型(LLM)和语音语言模型(SLM)能生成自然的对话语音,但生成的语音在文本-语音一致性、精确的时间戳获取以及保持自然对话动态(如韵律、重叠)方面存在挑战,限制了其作为高质量数据增强资源在下游任务中的应用。 方法核心:基于SLIDE框架,扩展生成带有精确转录和话语时间戳的双通道语音对话。通过从模型预测的音素时长中解析出连续的语音片段边界,获得精确的监督信号。随后,将这些生成的对话数据以多种策略(单独使用、与真实数据混合、预训练后微调)应用于四个下游任务:自动语音识别(ASR)、端到端神经说话人分离(EEND)、语音活动检测(VAD)和重叠语音检测(OSD)。 创新点:相比于直接使用真实数据或传统仿真数据,本文提出的方法生成的对话兼具自然对话动态和准确的标注(文本与时间戳)。它不是提出一个新的生成模型,而是系统地探索和验证了可控生成对话数据作为通用数据增强方案的潜力和具体应用方法。 主要实验结果:在Fisher和CALLHOME数据集上的实验表明: ASR:使用100小时真实数据+1600小时生成数据进行预训练-微调后,WER为14.31%,优于仅使用1600小时真实数据的15.20%。 VAD:仅用400小时生成数据训练的模型,CDER(对话级错误率)为34.4%,相比仅用真实数据的最佳结果48.1%有28.5%的相对改进。 OSD:结合1600小时真实数据与1600小时生成数据,F1分数达到65.4%,优于仅用1600小时真实数据的62.0%。 EEND:生成数据在MS+FA(漏检与误检)指标上表现良好,但由于生成对话仅包含120位说话人,导致说话人错误率较高,整体DER提升有限。 具体实验结果表格如下: 表1:ASR性能(Fisher数据集) 模型 训练数据规模 WER ↓ Wav2vec2 (真实数据) 100h 26.98% Wav2vec2 (真实数据) 1600h 15.20% Wav2vec2 (真实+生成数据) 100h+1600h (预训练+微调) 23.78% Wav2vec2 (真实+生成数据) 1600h+1600h (预训练+微调) 14.31% 表2:EEND性能(CALLHOME数据集) ...

2026-04-29

From Diet to Free Lunch: Estimating Auxiliary Signal Properties Using Dynamic Pruning Masks in Speech Enhancement Networks

📄 From Diet to Free Lunch: Estimating Auxiliary Signal Properties Using Dynamic Pruning Masks in Speech Enhancement Networks #语音增强 #语音活动检测 #多任务学习 #动态网络 #边缘AI ✅ 7.5/10 | 前25% | #语音增强 | #多任务学习 | #语音活动检测 #动态网络 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Riccardo Miccini (GN Hearing) 通讯作者:未说明 作者列表:Riccardo Miccini (GN Hearing), Clément Laroche (GN Hearing), Tobias Piechowiak (GN Hearing), Xenofon Fafoutis (Technical University of Denmark), Luca Pezzarossa (Technical University of Denmark) 💡 毒舌点评 这篇论文巧妙地将动态剪枝机制从“计算节食”的工具,升华为一个能同时“感知”语音活动、噪声类型、音高乃至说话人身份的“免费午餐”特征提取器,思路令人耳目一新。然而,其依赖线性模型和时序平滑的固有局限,使得它在处理瞬息万变的语音信号(如快速变化的SNR或F0)时显得力不从心,最终在SV任务上的平庸表现也暗示了其特征表示的瓶颈。 ...

2026-04-29

ICASSP 2026 - 语音活动检测 论文列表

ICASSP 2026 - 语音活动检测 共 5 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Lingometer: On-Device Personal Speech Word Counting System 8.0分 前25% 🥈 EEND-SAA: Enrollment-Less Main Speaker Voice Activity Detect 7.5分 前25% 🥉 Dual Data Scaling for Robust Two-Stage User-Defined Keyword 7.5分 前25% 4. EdgeSpot: Efficient and High-Performance Few-Shot Model for 7.5分 前25% 5. TVP-UNet: Threshold Variance Penalty U-Net for Voice Activit 7.0分 前25% 📋 论文详情 🥇 Lingometer: On-Device Personal Speech Word Counting System 🔥 8.0/10 | 前25% | #语音活动检测 | #端到端 | #低资源 #数据增强 ...

2026-04-29

Lingometer: On-Device Personal Speech Word Counting System

📄 Lingometer: On-Device Personal Speech Word Counting System #语音活动检测 #端到端 #低资源 #数据增强 #模型评估 🔥 8.0/10 | 前25% | #语音活动检测 | #端到端 | #低资源 #数据增强 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yuhwan Kim(Korea Advanced Institute of Science and Technology, South Korea) 通讯作者:Hyun W. Ka(Korea Advanced Institute of Science and Technology, South Korea) 作者列表:Yuhwan Kim(Korea Advanced Institute of Science and Technology, South Korea)、Junghun Lee(Korea Advanced Institute of Science and Technology, South Korea)、Baekho Kim(Korea Advanced Institute of Science and Technology, South Korea)、Hyun W. Ka(Korea Advanced Institute of Science and Technology, South Korea) 注:论文注明前两位作者贡献均等。 💡 毒舌点评 亮点:系统设计巧妙,通过“PVAD筛选 + WCE计数”的管道式架构,优雅地解决了设备端语音分析中的隐私与功耗矛盾,为数字生物标志物研究提供了合规的实用工具。 短板:WCE模型严重依赖词边界(音节起始点)的帧级标注,这在多语言或资源匮乏语言中可能成为瓶颈;实验部分缺少与更强基线(如大型端到端语音识别模型在相同轻量化约束下)的直接对比。 ...

2026-04-29

Spatially Aware Self-Supervised Models for Multi-Channel Neural Speaker Diarization

📄 Spatially Aware Self-Supervised Models for Multi-Channel Neural Speaker Diarization #说话人分离 #自监督学习 #麦克风阵列 #多通道 #语音活动检测 🔥 8.0/10 | 前25% | #说话人分离 | #自监督学习 #麦克风阵列 | #自监督学习 #麦克风阵列 学术质量 8.0/7 | 选题价值 8.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文按顺序列出作者,但未明确标注第一作者) 通讯作者:未说明 作者列表:Jiangyu Han(布尔诺理工大学),Ruoyu Wang(中国科学技术大学),Yoshiki Masuyama(三菱电机研究所),Marc Delcroix(NTT公司),Johan Rohdin(布尔诺理工大学),Jun Du(中国科学技术大学),Lukáš Burget(布尔诺理工大学) 💡 毒舌点评 这篇论文巧妙地利用WavLM的早期层注入空间信息,避免了从头训练多通道模型的高成本,方法设计轻量且通用。不过,其核心创新更多是工程上的“缝合”而非理论突破,且第二阶段的融合策略依赖于第一阶段的通道注意力权重,限制了端到端优化的可能。 📌 核心摘要 问题:当前基于自监督学习(如WavLM)的说话人分离系统通常在单通道数据上预训练,无法有效利用多通道录音中的空间信息。传统的后融合方法(如DOVER-Lap)计算成本高且空间信息利用不充分。 核心方法:在现有DiariZen管线(结合WavLM的EEND与向量聚类)基础上,提出一种轻量级方法:在预训练单通道WavLM的早期层中插入可学习的“通道通信模块”,使其能感知空间信息。该模块对麦克风数量和阵列拓扑结构通用。在聚类阶段,提出利用通道注意力权重来融合多通道说话人嵌入。 创新点:a) 在特征提取器内部注入空间感知能力,而非依赖后期融合;b) 使用结构化剪枝后的WavLM,在保持性能的同时大幅降低计算量;c) 提出基于注意力权重的说话人嵌入融合策略,无需额外训练。 主要实验结果:在五个公开数据集(AMI, AISHELL-4, AliMeeting, NOTSOFAR-1, CHiME-6)上进行评估。 表1(Oracle聚类下):所提的ChannelAttention(ChAtt)多通道模型在所有数据集上均优于单通道基线,且使用剪枝WavLM(18.8M参数)的性能接近未剪枝版本(94.4M参数)。 System WavLM Pruned DER (%) AMI Single-channel - - 13.5 Single-channel - ✓ 13.3 ChAtt - - 13.1 ChAtt - ✓ 12.9 TAC - ✓ 12.8 表2(VBx聚类下):所提方法的“attentive weighted fusion”变体在CHiME-6数据集上将DER降至27.5%,接近当时SOTA系统(27.5% vs ~25%),且计算效率优于DOVER-Lap基线。 System DER (%) AMI Single-channel 15.3 DOVER-Lap 14.7 Average probs & embs 14.9 ChAtt, DOVER-Lap 14.8 ChAtt, average embed. 14.9 ChAtt, att. argmax 14.9 ChAtt, att. weighted fusion 14.8 图2(推理时间):显示“attentive argmax”方法的推理时间显著低于DOVER-Lap,因为其仅从注意力最高的通道提取嵌入。 图3(注意力权重):分析了CHiME-6上的通道注意力权重,显示不同层对通道的关注度不同,且模式随输入变化,表明模型在利用空间线索。 图4(麦克风依赖性):分析了不同数据集上各单通道性能的方差,解释了为何在AliMeeting和CHiME-6上多通道增益更大(其录音配置导致通道间性能差异显著)。 实际意义:提供了一种高效、通用且易于实施的框架,将强大的单通道自监督预训练模型扩展到多通道说话人分离场景,性能超越传统后期融合方法,且计算成本更低,更适合实际部署。 主要局限性:a) 第二阶段的说话人嵌入提取仍基于单通道,未利用多通道信息(论文指出这是未来工作);b) 所提方法在录音条件均匀的数据集(如AMI)上提升有限,其优势主要体现在空间线索明显的复杂场景。 🏗️ 模型架构 本文的工作建立在DiariZen系统(一个EEND-VC管线)之上,并对其进行了多通道扩展。整体架构分为两个阶段: ...

2026-04-29

SynParaSpeech: Automated Synthesis of Paralinguistic Datasets for Speech Generation and Understanding

📄 SynParaSpeech: Automated Synthesis of Paralinguistic Datasets for Speech Generation and Understanding #语音合成 #数据集 #数据增强 #语音活动检测 ✅ 7.5/10 | 前25% | #语音合成 | #数据增强 | #数据集 #语音活动检测 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Bingsong Bai(北京邮电大学人工智能学院), Qihang Lu(北京邮电大学人工智能学院), Wenbing Yang(北京邮电大学人工智能学院)(论文标注为并列第一作者) 通讯作者:Ya Li(北京邮电大学人工智能学院), Jun Gao(Hello Group Inc.) 作者列表: Bingsong Bai(北京邮电大学人工智能学院) Qihang Lu(北京邮电大学人工智能学院) Wenbing Yang(北京邮电大学人工智能学院) Zihan Sun(Hello Group Inc.) Yueran Hou(Hello Group Inc.) Peilei Jia(Hello Group Inc.) Songbai Pu(Hello Group Inc.) Ruibo Fu(中国科学院自动化研究所) Yingming Gao(北京邮电大学人工智能学院) Ya Li(北京邮电大学人工智能学院) Jun Gao(Hello Group Inc.) 💡 毒舌点评 这篇论文的亮点在于构建了一条颇为精巧的“副语言数据自动化工厂”流水线,把ASR投票、LLM“加标点”、语音转换“换音色”等技术模块组装得很有条理,并通过扎实的实验证明了用这套流水线生产出的数据集确实好用。其短板在于,这条流水线本身是“站在巨人肩膀上”的工程集成,核心的算法创新性相对有限;而且,用合成数据训练的模型,其生成的“副语言”是否真正捕捉到了人类情感的细微之处,可能还需在更复杂的交互场景中打个问号。 ...

2026-04-29