Bridging the Front-End and Back-End for Robust ASR via Cross-Attention-Based U-Net

📄 Bridging the Front-End and Back-End for Robust ASR via Cross-Attention-Based U-Net #语音识别 #交叉注意力 #U-Net #鲁棒性 ✅ 7.0/10 | 前25% | #语音识别 | #交叉注意力 | #U-Net #鲁棒性 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Tianqi Ning (新疆大学计算机科学与技术学院) 通讯作者:Hao Huang (新疆大学计算机科学与技术学院) 作者列表:Tianqi Ning (新疆大学计算机科学与技术学院, 新疆多语言信息技术重点实验室),Lili Yin (新疆大学计算机科学与技术学院, 新疆多语言信息技术重点实验室),Liting Jiang (新疆大学计算机科学与技术学院, 新疆多语言信息技术重点实验室),Yuye Hu (新疆大学计算机科学与技术学院, 新疆多语言信息技术重点实验室),Ziyuan Chen (新疆大学计算机科学与技术学院, 新疆多语言信息技术重点实验室),Hao Huang (新疆大学计算机科学与技术学院, 新疆多语言信息技术重点实验室, 丝绸之路多语言认知计算联合国际研究实验室) 💡 毒舌点评 本文的核心亮点在于其“桥梁”模块的设计哲学:不改变预训练的SE和ASR模型,而是通过一个轻量的交叉注意力U-Net在冻结设置下进行特征融合,这为即插即用地提升现有系统鲁棒性提供了一个优雅的解决方案。然而,论文在证明该方法的普适性上稍显薄弱,其所有实验均在一个跨域测试集(AMI)上进行,虽然这恰恰是其宣称的优势场景,但缺乏在标准训练/测试同分布基准(如CHiME-4测试集)上的验证,使得结论的全面性打了折扣。 📌 核心摘要 问题:语音增强(SE)作为语音识别(ASR)的前端,会引入与ASR目标不匹配的失真或伪影。现有观察添加(OA)方法通过线性融合增强语音和带噪语音来缓解此问题,但在复杂声学环境中效果有限且依赖于固定的融合系数。 方法核心:提出一种基于交叉注意力的U-Net模块(CA-UNet),用于交互式地融合增强语音和带噪语音的Fbank特征。该模块采用双分支编码器-解码器架构,利用交叉注意力机制让两个输入分支相互提取互补信息,并通过门控融合模块自适应整合输出,最终生成更鲁棒的声学特征。 创新性:与OA的线性加法机制相比,本方法引入了非线性、可学习的交互式特征融合;在保持前端SE和后端ASR模型参数冻结的严格条件下运行,具有即插即用的实用性;将U-Net的多尺度特征提取能力与交叉注意力的动态信息整合能力相结合。 主要实验结果:在AMI sdm1数据集(复杂会议场景)上,使用冻结的FRCRN(SE)和Whisper-medium(ASR)时,所提方法相比最佳OA基线(wOA=0.2)实现了28.71%的相对词错误率(WER)降低,相比仅使用增强语音(SE-ASR)实现了26.76%的相对降低。消融实验表明,交叉注意力和自注意力模块对性能提升均有贡献。关键实验结果表格如下: ASR后端 SE前端 仅ASR (WER) SE+ASR (WER) SE+OA+ASR (WER) 提出方法 (WER) whisper-small FRCRN 99.18% 72.49% 77.94% 54.06% whisper-small MossformerGAN 99.18% 56.35% 64.44% 52.91% whisper-medium FRCRN 62.67% 54.25% 55.73% 39.73% whisper-medium MossformerGAN 62.67% 46.58% 49.74% 41.39% whisper-large FRCRN 53.98% 44.62% 47.39% 38.93% whisper-large MossformerGAN 53.98% 40.49% 43.53% 40.81% 表I 摘录。可以看出,提出方法在所有配置中均取得最佳或次佳性能,尤其在使用较小ASR模型时优势更明显。 实际意义:为在不重新训练已有预训练SE和ASR模型的前提下,提升复杂环境下的ASR鲁棒性提供了一种有效的后处理方案,降低了系统集成与升级的成本。 主要局限性:实验验证集中在单一的跨域测试集(AMI),缺乏在标准同分布基准上的对比;模块虽轻量但仍引入额外延迟(约15.83ms/句),对实时性要求极高的场景可能有影响;论文未公开代码和模型,限制了复现与应用。 🏗️ 模型架构 整体架构: 如图1所示,所提模块接收两路输入:增强语音的Fbank特征(Ze) 和 带噪语音的Fbank特征(Zn)。每路输入通过一个独立的分支进行处理,两个分支结构对称,均包含一个编码器、一个解码器以及一个门控融合模块。最终,融合后的特征被送入下游ASR后端(如Whisper)。 ...

2026-04-29

Diff-vs: Efficient Audio-Aware Diffusion U-Net for Vocals Separation

📄 Diff-vs: Efficient Audio-Aware Diffusion U-Net for Vocals Separation #语音分离 #扩散模型 #U-Net #数据增强 #音频生成 ✅ 7.5/10 | 前25% | #语音分离 | #扩散模型 | #U-Net #数据增强 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yun-Ning (Amy) Hung (Moises, USA) 通讯作者:未说明 作者列表:Yun-Ning (Amy) Hung (Moises, USA), Richard Vogl (Moises, USA), Filip Korzeniowski (Moises, USA), Igor Pereira (Moises, USA) 💡 毒舌点评 亮点:论文巧妙地将针对图像生成优化的EDM框架“移植”到音频分离,并通过带分离和双路径RoFormer等音乐领域知识进行“魔改”,成功将扩散模型的推理步数压至个位数,在生成式方法中实现了SOTA性能。短板:虽然在自家构建的生成式对比阵营中鹤立鸡群,但一旦面对经过大规模数据洗礼的判别式“怪兽”(如BS-RoFormer),在客观指标上依然力有不逮,生成式范式在音乐分离上的“逆天改命”之路仍需努力。 📌 核心摘要 问题:当前基于生成式扩散模型的音乐源分离方法,在标准客观指标(如SDR)上通常落后于判别式方法,且推理步数多、模型庞大,限制了其实用性。 方法:本文提出Diff-VS,一个基于Elucidated Diffusion Model (EDM)框架的高效音频感知扩散U-Net模型,专门用于人声分离。模型输入为经过特殊归一化的复数频谱图,并采用带分离和双路径RoFormer块改进的U-Net架构。 创新:首次将EDM框架应用于人声分离,实现了少于10步的高效推理;提出针对音乐信号特性的架构改进(如用双路径RoFormer替换像素自注意力);实验证明生成式方法能达到与判别式方法竞争力的客观指标和更优的感知质量。 实验结果:在MUSDB18-HQ数据集上,仅需7步推理的Diff-VS达到了10.12 dB的cSDR,超越了所有已对比的生成式模型(最高为SGMSE的8.63 dB),并接近SCNet-L (10.86 dB) 等顶尖判别式模型。在基于MERT嵌入的感知质量评估中,Diff-VS (MSE=0.083) 优于SCNet-L (0.096) 和SGMSE (0.089)。 实际意义:该工作证明了经过精心设计的生成式模型,可以在保持分离质量(特别是感知质量)的同时,大幅提升推理效率,为生成式方法在音频分离领域的实际应用提供了可能。 主要局限性:在使用更多数据(MoisesDB)训练的最强判别式模型(如BS-RoFormer-12L)面前,客观性能仍有明显差距;模型目前仅针对人声分离,未验证其在多乐器分离任务上的能力;缺乏对生成多样性的讨论和评估。 🏗️ 模型架构 Diff-VS的整体架构基于EDM框架下的改进型DDPM++ U-Net。 ...

2026-04-29

FUN-SSL: Full-Band Layer Followed by U-Net With Narrow-Band Layers for Multiple Moving Sound Source Localization

📄 FUN-SSL: Full-Band Layer Followed by U-Net With Narrow-Band Layers for Multiple Moving Sound Source Localization #声源定位 #U-Net #深度学习 #麦克风阵列 🔥 8.0/10 | 前25% | #声源定位 | #U-Net | #深度学习 #麦克风阵列 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:未说明(论文中未明确标注第一作者,作者列表按姓氏排序) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Yuseon Choi(光州科学技术院, Deeply Inc.)、Hyeonseung Kim(光州科学技术院)、Jewoo Jun(光州科学技术院)、Jong Won Shin(光州科学技术院) 💡 毒舌点评 亮点:论文的“性价比”极高,通过引入成熟的U-Net架构和深度可分离卷积,在模型参数量几乎不变的情况下,将计算复杂度(FLOPs)降低了近一半,同时定位精度还有小幅提升,这在面向实时部署的边缘计算场景下具有很强的吸引力。 短板:模型在更贴近真实、更具挑战性的LOCATA数据集上,性能相比基线IPDnet并未取得明显优势,这暗示其在极端复杂声学环境下的泛化能力或改进效果可能存在天花板,创新性稍显不足。 📌 核心摘要 这篇论文针对多移动声源定位任务中现有高性能模型(如IPDnet)计算复杂度过高的问题,提出了一种名为FUN-SSL的新颖神经网络架构。其方法核心是将原有的全窄带处理块(FN-block)替换为“全带层+U-Net窄带层”(FUN-block),在保持全带处理以捕捉频间相关性的同时,利用U-Net结构在多个分辨率上高效地建模时序依赖。主要创新在于模块化设计和引入了模块间的跳跃连接以丰富信息流。实验结果表明,在模拟数据集上,FUN-SSL(0.8M参数)在粗粒度准确率(94.2%)、细粒度误差(1.9°)和误警率(5.8%)上均优于重新训练的IPDnet(0.7M参数,对应指标为93.0%、2.0°、7.1%),同时计算量(FLOPs)从19.4G/s降至10.8G/s。该工作的实际意义在于为资源受限设备(如麦克风阵列)上的实时多声源跟踪提供了更高效的解决方案。主要局限性在于其在真实世界LOCATA数据集上的性能与基线模型相当,未展现出显著优势。 🏗️ 模型架构 本文提出的FUN-SSL是一个端到端的深度学习模型,其整体架构和核心模块FUN-block的详细设计如下图所示。 整体架构(图1上部): 输入:多通道音频信号的短时傅里叶变换(STFT)表示,形状为 N × K × 2M(帧数N,频率点K,麦克风数M,实虚部2)。输入经过拉普拉斯归一化。 处理主体:由一系列FUN块堆叠而成(论文中设置为B=2)。 输出头:最后一个FUN块的输出经过一个因果卷积块,其中使用了深度可分离卷积(先逐点卷积后深度卷积),最终输出各麦克风对关于Q个候选源的直接路径相对传递函数(DP-RTF)的实部和虚部估计值。 定位决策:估计的DP-RTF与所有可能方向的理论DP-RTF进行比对,以确定声源活动和到达方向(DoA)。 FUN块(图1下部详细结构):每个FUN块是模型的核心计算单元,旨在以更低的计算成本实现全带-窄带双路径处理。 ...

2026-04-29

TVP-UNet: Threshold Variance Penalty U-Net for Voice Activity Detection in Dysarthric Speech

📄 TVP-UNet: Threshold Variance Penalty U-Net for Voice Activity Detection in Dysarthric Speech #语音活动检测 #U-Net #阈值方差惩罚 #构音障碍 #半监督学习 ✅ 7.0/10 | 前25% | #语音活动检测 | #U-Net | #阈值方差惩罚 #构音障碍 学术质量 5.5/7 | 选题价值 1.2/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:Aditya Pandey (School of Computer Science and Engineering, Vellore Institute of Technology, Chennai, India) 通讯作者:未明确说明(从贡献描述和作者排序推测,核心研究者为来自IISc的Prasanta Kumar Ghosh) 作者列表:Aditya Pandey(VIT Chennai),Tanuka Bhattacharjee, Prasanta Kumar Ghosh(Indian Institute of Science, Bengaluru),Madassu Keerthipriya, Darshan Chikktimmegowda, Dipti Baskar, Yamini BK, Seena Vengalil, Atchayaram Nalini, Ravi Yadav(National Institute of Mental Health and Neurosciences, Bengaluru)。 💡 毒舌点评 亮点:这是首个专门针对构音障碍语音的VAD研究,问题定义精准且临床意义明确;提出的TVP损失通过“阈值方差惩罚”巧妙地稳定了弱分类器在模糊边界上的决策,是一个可解释性强的正则化技巧。 短板:实验基线过于陈旧(2022年的方法),未能与当前先进的自监督、基于变换器的VAD模型对比,削弱了方法在通用场景下竞争力的说服力;且未提供任何代码或模型,在开源盛行的今天,严重阻碍了其影响力扩散。 ...

2026-04-29

ArtifactNet: Detecting AI-Generated Music via Forensic Residual Physics

📄 ArtifactNet: Detecting AI-Generated Music via Forensic Residual Physics #音频深度伪造检测, #知识蒸馏, #数据增强, #基准测试, #U-Net 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者 & 通讯作者:Heewon Oh (Intrect / MARTE Lab, Dongguk University, Seoul, South Korea) 其他作者:无(论文仅列出一位作者) 💡 毒舌点评 亮点:巧妙地将AI音乐检测问题从“学习它听起来像什么”(容易过时)升维到“检测它物理上留下了什么痕迹”(更本质),就像法医通过指纹破案而非记忆罪犯长相。提出的“有界掩码”和“编解码器感知训练”解决了关键的技术陷阱。 槽点:检测器严重依赖完整的音频带宽(44.1kHz),在流媒体压缩或低采样率场景下可能失效,这限制了其在某些实际部署中的应用。此外,对“未来可能不使用神经编解码器”的生成器的失效警告,也像是给自己的“武功”画了个圈。 📌 核心摘要 这篇论文旨在解决AI生成音乐检测中普遍存在的泛化能力差的问题。当前主流方法(如CLAM、SpecTTTra)通过学习AI音乐的声音特征,在面对未见过的生成器时性能急剧下降。作者提出了一个核心假设:当前主流AI音乐生成器(如Suno, Udio)都依赖神经音频编解码器(如EnCodec)的残差矢量量化(RVQ),这一过程会引入不可逆的信息损失,形成独特的物理“痕迹”。基于此,论文提出了ArtifactNet框架,其核心是:1)使用一个轻量级(3.6M参数)的有界掩码U-Net(ArtifactUNet)从频谱图中提取源分离残差;2)应用谐波-打击乐源分离(HPSS)将残差分解为7通道的法医特征;3)用一个微型CNN(0.4M参数)进行分类。在包含22个生成器的新基准ArtifactBench上,ArtifactNet的F1分数达到0.9829,假阳性率(FPR)仅为1.49%,远超基线模型。论文还通过编解码器感知训练(使用MP3/AAC/Opus增强)解决了模型对压缩格式的敏感性问题,并在公开的SONICS数据集上验证了性能的领先性。该工作表明,通过放大生成过程的物理痕迹,可以用极小的模型实现鲁棒且可快速适应的检测。 🏗️ 模型架构 ArtifactNet是一个三阶段的端到端流水线,总参数量仅4.0M,处理44.1kHz单声道音频。 输入:原始音频波形。 阶段一:法医残差提取 (ArtifactUNet, 3.6M参数) 功能:预测一个频谱图掩码,以提取输入音频中的“异常”残差信号。 结构:基于U-Net编码器-解码器架构,带有门控残差块瓶颈。 关键设计:输出掩码 m 通过Sigmoid函数约束在 [0, 0.5] 范围内。这意味着残差 r = m ⊙ X(⊙为逐元素乘)在任何时频点上的能量最多占原始信号 X 的一半。这一有界设计防止了网络退化为直接传递整个输入信号的平凡解。 训练:分为三阶段。第一阶段(知识蒸馏)用Demucs v4源分离模型的残差作为教师信号,学习残差的形态。第二阶段(分类器引导)固定下游CNN,用分类损失反向传播微调UNet,使其残差更具判别性。第三阶段(编解码器感知)使用WAV/MP3/AAC/Opus四种编码增强数据训练,使提取的残差对压缩格式不变。 阶段二:7通道法医特征计算 (HPSS + 特征工程) 功能:将第一阶段输出的残差幅度谱图分解并转化为富含判别信息的多通道特征。 结构: 对残差谱图应用谐波-打击乐源分离(HPSS),得到谐波分量(H)和打击乐分量(P)。 组合原始残差梅尔谱图(mel_res)、HPSS谐波(mel_H)、HPSS打击乐(mel_P)、一阶时间导数(Δ)、二阶时间导数(Δ²)、谐波/打击乐对数比(hp_ratio)、谱通量(spectral_flux),共7个通道。 输出:一个形状为 [7, T, F] 的张量,其中T和F为时间和频率维度。 阶段三:分类与歌曲级判决 (ResidualCNN7ch, 0.4M参数) 功能:对4秒的音频片段进行AI概率预测,并聚合为整首歌曲的判决。 结构:一个紧凑的CNN,包含3个卷积-批归一化-ReLU-池化块,后接自适应平均池化和全连接层。 片段预测:输入7通道特征,输出 P(AI) ∈ [0, 1]。 歌曲级判决:对一首歌所有片段的预测概率取中位数,然后以阈值0.5二值化。 输出:歌曲为AI生成的概率。 💡 核心创新点 法医残差提取范式:将AI音乐检测从“学习生成内容的表征”(易受内容、风格影响)重新定义为“放大和分析生成过程的物理痕迹”(更本质)。这借鉴了图像取证中从像素分类到物理特征(如扩散噪声特征)的转变思路。 有界掩码UNet (ArtifactUNet):设计了一个预测乘法掩码而非直接残差的网络,并通过[0, 0.5]的有界约束,有效避免了网络学习到恒等映射的捷径,确保提取的是真正的“附加”残差信号。 HPSS作为法医特征:首次将音乐信息检索(MIR)中成熟的HPSS技术应用于源分离残差上。谐波分量捕捉AI音乐在周期性结构上的扰动,打击乐分量捕捉瞬态能量的异常泄漏,为检测提供了可解释的物理依据。 编解码器感知训练:通过在训练中主动使用WAV、MP3、AAC、Opus四种编解码器进行数据增强,教会模型抑制由通用有损压缩引入的伪影,使其专注于由神经音频编解码器RVQ量化引入的特有痕迹。这解决了模型将MP3压缩误判为AI生成的关键失败模式。 ArtifactBench基准与OOD评估框架:构建了一个包含22个AI生成器和6种真实音乐来源的综合性基准,并引入了bench_origin标签以支持严格的零样本评估。同时,提出了一个四轴(生成器、真实域、编解码器、时间)的OOD评估哲学,更清晰地剖析模型的泛化能力。 🔬 细节详述 训练数据: 来源:来自28个子集,总计20,374条音轨(12,495 AI, 7,879真实)。包括AIME、MoM、SONICS、Suno/Udio CDN等数据集,以及为抑制假阳性而加入的FMA MP3和YouTube制作音乐等“硬负例”。 预处理:音频统一为44.1kHz单声道。训练时使用4秒片段。 数据增强:在Phase 3(编解码器感知训练)中,对每个训练样本同时应用WAV(无损)、MP3 (128kbps)、AAC (128kbps)、Opus (128kbps) 四种编码,构成一个批次。 损失函数: Phase 1 (知识蒸馏):L1损失 + 多分辨率STFT损失,目标是与Demucs v4残差对齐。 Phase 2 (分类器引导):二元交叉熵(BCE)损失,通过可微分的梅尔谱图变换反向传播至UNet。 Phase 3 (下游CNN训练):BCE损失。 训练策略: 优化器:论文未明确指定,但提及了分阶段训练。 关键超参数:掩码边界 [0, 0.5];片段长度4秒;歌曲级判决使用中位数聚合;分类阈值 τ = 0.5(用于主要报告)。 硬件/时间:未明确提及。 推理细节: 输入44.1kHz单声道音频。 将音频切分为4秒片段(有重叠)。 对每个片段通过完整流水线得到 P(AI)。 对一首歌所有片段的 P(AI) 取中位数,与阈值0.5比较得到最终判决。 正则化/增强:除了编解码器增强,还通过“硬负例挖掘”(加入FMA MP3等)来增强模型对易混淆真实音乐的判别力。 📊 实验结果 主要指标对比(ArtifactBench测试集, n=2,263): 模型 参数量 F1 精确率 召回率 假阳性率(FPR) ArtifactNet (ours) 4.0M 0.9829 0.9905 0.9755 0.015 (1.5%) SpecTTTra 18.7M 0.7713 0.8519 0.7046 0.194 (19.4%) CLAM 194M 0.7576 0.6674 0.8761 0.693 (69.3%) 主要指标对比(SONICS测试集, n=23,288, 统一协议): 模型 参数量 F1 AUC 假阳性率(FPR) ArtifactNet v9.5 4.0M 0.9993 0.9999 0.09% SpecTTTra 18.7M 0.8874 0.9303 17.97% CLAM 194M 0.7652 0.8222 67.16% 消融实验: 编解码器感知训练(Phase 3)效果:将真实音乐在MP3编码下的假阳性率从98.7%降至8.0%(FMA子集),跨编解码器概率变化量(Δ)从0.95降至0.16(降低83%)。 有界掩码效果:移除有界约束后,UNet掩码均值趋近1,残差能量占比超95%,模型退化为直通,F1分数大幅下降。 7通道特征贡献:附录B提到将对每个通道进行消融,结果待补充。 对抗鲁棒性:对AI音频进行单次Demucs源分离“清洗”后,模型F1从0.9950降至0.9592,表明法医信号减弱但未被完全消除。 带宽指纹证据:AI生成音乐残差的有效带宽平均为291 Hz,而人类音乐为1,996 Hz,相差6.9倍,为“神经编解码器瓶颈”假设提供了独立的声学证据。 ROC分析:在FPR≤5%的宽松操作点(τ≈0.28),TPR可达99.1%。F1分数在阈值τ∈[0.05, 0.9]范围内保持在0.98以上,显示系统对阈值不敏感。 ⚖️ 评分理由 创新性:9/10 - 提出了从“内容识别”到“物理痕迹检测”的范式转变,核心思想(法医残差、有界掩码、HPSS特征化)新颖且有效,对领域有重要启发。 实验充分性:9/10 - 实验设计极为全面和严谨。不仅在新基准上测试,还用公开基准验证排名稳定性;进行了详尽的消融研究(掩码、训练阶段、特征通道);评估了编解码器鲁棒性、对抗攻击等现实挑战;提出了系统的OOD评估框架。数据支撑坚实。 实用价值:8/10 - 直接应对AI音乐泛滥的现实安全挑战,模型轻量(4M参数)易于部署,且提出“快速适应”的 defender advantage 理念,通过微调小模型即可应对新失败模式,实用性强。局限性在于对全带宽的依赖。 灌水程度:2/10 - 论文内容紧凑,创新点明确,实验环环相扣,没有明显的冗余或夸大表述。附录和待补充内容(如通道消融)属于正常的研究过程记录。 🔗 开源详情 代码:评估工具和基准测试运行器已开源,地址:github.com/Intrect-io/artifactbench (MIT许可证)。 模型权重:未开源原始训练权重。但提供了预编译的ONNX推理构建,地址:huggingface.co/intrect/artifactnet (CC BY-NC 4.0许可证)。 数据集:ArtifactBench v1 已开源,地址:huggingface.co/datasets/intrect/artifactbench (CC BY-NC 4.0许可证),包含音频数据。 在线Demo:论文未提及。 引用的开源项目:Demucs v4 (源分离)、FMA数据集、SONICS和MoM基准的检查点等。 🖼️ 图片与表格 图1: 架构概览图 | 保留: 是 - 清晰展示了从音频输入到最终概率输出的三阶段流水线(ArtifactUNet -> HPSS+7ch -> CNN -> Median),以及各组件参数量,是理解论文方法的核心。 图2: UNet编解码器鲁棒性直方图 | 保留: 是 - 直观对比了基线UNet和编解码器感知UNet在不同编解码器(WAV/MP3/AAC/Opus)下对真实音乐的预测概率分布。基线模型在MP3下严重右偏(高FPR),而提出方法有效纠正了此问题,是证明编解码器感知训练必要性的关键证据。 图3: SONICS测试集3-way对比(四子图) | 保留: 是 - 这是一组核心结果图。(A)整体指标对比,显示ArtifactNet全面领先;(B)真实音乐FPR对比(对数坐标),凸显ArtifactNet的极低FPR;(C)分来源准确率热力图,显示ArtifactNet在各AI生成器和真实源上表现均衡;(D)效率对比图(F1 vs. 参数量),直观展示其以极小参数量实现高性能。信息量极大。 图4: ArtifactBench性能对比(四子图) | 保留: 是 - 以柱状图形式清晰展示了在ArtifactBench测试集上,ArtifactNet在F1、精确率、召回率和FPR四个指标上对SpecTTTra和CLAM的显著优势。数据与正文表格一致,可视化更直观。 图5: 残差有效带宽对比 | 保留: 是 - 展示了AI音乐(分生成器列出)与人类音乐残差有效带宽的巨大差异(平均291 Hz vs. 1996 Hz),为“神经编解码器瓶颈”假设提供了直观、可解释的声学证据,是支持论文核心论点的重要机理分析图。 图6: ROC曲线与F1-阈值曲线 | 保留: 是 - (a)ROC曲线显示模型性能优异,AUC接近1;(b)F1-阈值曲线显示F1分数在很宽的阈值范围内(约0.05-0.9)保持高位,证明系统对操作阈值不敏感,鲁棒性强,这对实际部署很重要。 📸 论文图片 ...

2026-04-21

语音/音频论文速递 2026-04-21

语音/音频论文速递 2026-04-21 共分析 34 篇论文 ⚡ 今日概览 📥 抓取 34 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 模型评估 13篇 █████████████ 基准测试 9篇 █████████ 音频大模型 8篇 ████████ 数据集 7篇 ███████ 多语言 7篇 ███████ 多模态模型 5篇 █████ 强化学习 5篇 █████ 语音对话系统 4篇 ████ 📊 论文评分排行榜(34 篇,按分数降序) 排名 论文 评分 🥇 FreezeEmpath: Efficient Training for Empathetic Spoken 10.0分 🥈 Audio-DeepThinker: Progressive Reasoning-Aware Reinforc 9.5分 🥉 VoxSafeBench: Not Just What Is Said, but Who, How, and 9.5分 4 Benign Fine-Tuning Breaks Safety Alignment in Audio LLM 9.0分 5 Prosody as Supervision: Bridging the Non-Verbal–Verbal 9.0分 6 Anonymization, Not Elimination: Utility-Preserved Speec 8.5分 7 MimicLM: Zero-Shot Voice Imitation through Autoregressi 8.5分 8 ArtifactNet: Detecting AI-Generated Music via Forensic 8.5分 9 Audio-Cogito: Towards Deep Audio Reasoning in Large Aud 8.5分 10 LLM-Codec: Neural Audio Codec Meets Language Model Obje 8.5分 11 NIM4-ASR: Towards Efficient, Robust, and Customizable R 8.5分 12 Video-Robin: Autoregressive Diffusion Planning for Inte 8.0分 13 A state-space representation of the boundary integral e 8.0分 14 AVRT: Audio-Visual Reasoning Transfer through Single-Mo 8.0分 15 MoVE: Translating Laughter and Tears via Mixture of Voc 8.0分 16 SELF-EMO: Emotional Self-Evolution from Recognition to 8.0分 17 BhashaSutra: A Task-Centric Unified Survey of Indian NL 8.0分 18 MINT-Bench: A Comprehensive Multilingual Benchmark for 8.0分 19 ICLAD: In-Context Learning with Comparison-Guidance for 7.5分 20 Still Between Us? Evaluating and Improving Voice Assist 7.5分 21 Where Do Self-Supervised Speech Models Become Unfair? 7.5分 22 Neural Encoding Detection is Not All You Need for Synth 7.5分 23 Omni-Embed-Audio: Leveraging Multimodal LLMs for Robust 7.5分 24 Latent Fourier Transform 7.5分 25 Hard to Be Heard: Phoneme-Level ASR Analysis of Phonolo 7.5分 26 VIBE: Voice-Induced open-ended Bias Evaluation for Larg 7.5分 27 Aligning Language Models for Lyric-to-Melody Generation 7.5分 28 ClariCodec: Optimising Neural Speech Codes for 200bps C 7.0分 29 From Reactive to Proactive: Assessing the Proactivity o 7.0分 30 A novel LSTM music generator based on the fractional ti 6.5分 31 Incremental learning for audio classification with Hebb 6.5分 32 Coexisting Tempo Traditions in Beethoven’s Piano and Ce 6.0分 33 FLiP: Towards understanding and interpreting multimodal 5.5分 34 HCFD: A Benchmark for Audio Deepfake Detection in Healt 5.0分 📋 论文列表 🥇 FreezeEmpath: Efficient Training for Empathetic Spoken Chatbots with Frozen LLMs 🔥 10.0分 | #语音对话系统 #多模态模型 #迁移学习 #语音情感识别 | arxiv ...

2026-04-21