HiFi-HARP: A High-Fidelity 7th-Order Ambisonic Room Impulse Response Dataset

📄 HiFi-HARP: A High-Fidelity 7th-Order Ambisonic Room Impulse Response Dataset #数据集 #混合仿真 #麦克风阵列 #空间音频 #声源定位 ✅ 7.5/10 | 前25% | #数据集 | #混合仿真 | #麦克风阵列 #空间音频 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Shivam Saini(Leibniz University Hannover, Institut für Kommunikationstechnik) 通讯作者:未说明 作者列表:Shivam Saini(Leibniz University Hannover, Institut für Kommunikationstechnik)、Jürgen Peissig(Leibniz University Hannover, Institut für Kommunikationstechnik) 💡 毒舌点评 亮点:论文的亮点在于其“集大成”的工程实现——将高阶Ambisonics(7阶)、混合声学仿真(低频波导+高频射线追踪)以及来自3D-FRONT的复杂室内场景这三个关键要素成功融合并规模化,形成了一个在技术规格上超越以往同类数据集(如HARP、GWA)的资源。短板:主要短板在于其“高保真”声称部分依赖于文本语义的材料映射(图2,图3),这引入了一个与真实世界材料属性不确定性的间隙,使得数据集的保真度上限可能受限于该映射方法的精度,而非物理仿真本身的极限。 🔗 开源详情 代码:论文中未提及代码仓库链接。 模型权重:未提及。 数据集:公开提供。论文明确指出数据可在HuggingFace上获取:https://huggingface.co/datasets/whojavumusic/hifi_harp。 Demo:论文中未提及在线演示。 复现材料:论文详细描述了数据生成流水线,包括使用的场景库(3D-FRONT)、仿真工具(pffdtd, G-Sound)、麦克风阵列设计等,这为复现提供了重要信息。但未提供完整的配置文件、脚本或预处理步骤。 论文中引用的开源项目: pffdtd: FDTD声学仿真软件(https://github.com/bsxfun/pffdtd)。 G-Sound: 交互式声音传播库。 3D-FRONT: 3D室内场景数据集。 SentenceFormer: 用于文本嵌入的模型。 Fliege-Maier grid: 用于球形麦克风阵列设计的网格点生成方法。 📌 核心摘要 解决的问题:为了解决现有大规模房间脉冲响应(RIR)数据集要么Ambisonic阶数低(如FOA),要么声学仿真方法单一(仅几何声学或仅波导),要么房间场景过于简单(鞋盒模型)的问题,本论文旨在创建一个结合了高阶、高保真仿真和复杂真实场景的大规模RIR数据集。 方法核心:方法核心是构建一个混合声学仿真流水线:对900 Hz以下的低频采用基于有限差分时域(FDTD)的波导仿真,以准确模拟衍射等波动现象;对900 Hz以上的高频采用射线追踪方法进行高效仿真。数据基于3D-FRONT数据库中复杂、带家具的室内场景,并通过基于语义标签的文本分类方法为物体表面分配频率相关的声学吸收系数。最终将原始RIR编码为AmbiX格式(ACN)的7阶Ambisonic表示。 相比已有方法新在哪里:HiFi-HARP是首个将7阶高阶Ambisonics与混合波导-几何声学仿真相结合,并应用于大规模复杂室内场景的数据集。相比仅用图像源法(ISM)的HARP数据集,它引入了更精确的低频波动效应;相比仅用几何仿真的SoundSpaces,它提供了更高的Ambisonic阶数和低频精度;相比单通道的GWA数据集,它提供了完整的高阶空间信息。 主要实验结果: 数据集规模与特性:包含超过10万个7阶RIR,场景覆盖约2000个复杂室内空间,RT60主要分布在0.2-0.8秒,中频吸收系数在0.2-0.9之间。 下游任务验证: T60估计(表II):使用HiFi-HARP数据对测量数据增强训练后,模型在真实测试集上的性能显著提升,Pearson相关系数(ρ)从0.85提高到0.92,MSE从0.018降至0.012。 DOA估计(表III):训练数据的Ambisonic阶数越高,DOA估计模型在真实BRIR测试集上的性能越好。使用7阶数据训练的模型达到最低MSE(1.93)和最高的Pearson相关系数(0.90)。 仿真验证:与商业仿真软件Treble及实验室测量对比(图2,图3),显示在不同频带存在一定误差,主要归因于材料属性映射的不精确。 实际意义:为声场录制、空间音频渲染(VR/AR)、声源定位、去混响、房间声学参数估计等领域的数据驱动算法研究和基准测试提供了前所未有的高质量、大规模、多样化的训练和评估资源。 主要局限性:局限性包括:1)材料属性通过文本语义映射获取,与真实测量存在偏差;2)所有场景和声源均为静态,不包含动态变化;3)64通道球形麦克风阵列是一个物理近似,在900 Hz以上存在空间混叠;4)未建模家具的细微结构和房间内人员的存在。 🏗️ 模型架构 本文的核心贡献是一个数据生成流水线(Pipeline),而非一个用于推理的端到端模型。该流水线的主要架构和流程如下: ...

2026-04-29

High-Fidelity Speech Enhancement Via Discrete Audio Tokens

📄 High-Fidelity Speech Enhancement Via Discrete Audio Tokens #语音增强 #自回归模型 #语音大模型 #数据集 #预训练 ✅ 7.5/10 | 前25% | #语音增强 | #自回归模型 | #语音大模型 #数据集 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Luca A. Lanzendörfer(未明确标注,但根据作者列表顺序推测) 通讯作者:未说明 作者列表:Luca A. Lanzendörfer (ETH Zurich), Frédéric Berdoz (ETH Zurich), Antonis Asonitis (ETH Zurich), Roger Wattenhofer (ETH Zurich) 💡 毒舌点评 亮点在于其架构的“暴力美学”——用一个足够大的语言模型(1B LLaMA)和足够高分辨率的离散表示(44.1kHz DAC),将复杂的语音增强多阶段流水线简化为直接的token-to-token转换,并取得了SOTA结果,为“大力出奇迹”在语音领域提供了又一例证。短板在于这种简化高度依赖预训练的高质量编解码器(DAC)和计算资源,论文对模型计算成本、推理延迟等实际部署考量几乎只字未提,且在处理特定失真(如DNS挑战中的背景噪声抑制)时并未展现出压倒性优势。 🔗 开源详情 代码:论文明确表示“We release our codebase and model checkpoints”,并提供了Demo网站链接 https://lucala.github.io/dac-se1/。但未直接给出代码仓库URL。 模型权重:承诺发布模型检查点。 数据集:使用了公开数据集(HiFiTTS-2, MUSAN, DEMAND等),但论文中生成的训练数据集本身是否公开未说明。 Demo:提供了在线演示网站。 复现材料:论文给出了模型架构、训练数据来源、两阶段训练策略、主要超参数(模型大小、码本等)。但未提供完整的训练配置文件、损失函数具体实现、推理脚本等细节。 论文中引用的开源项目:依赖的开源工具/模型包括DAC编码器/解码器、LLaMA架构、Whisper-Large(用于计算WER)。 📌 核心摘要 这篇论文旨在解决现有基于语言模型的语音增强方法局限于低采样率(16kHz)和依赖复杂多阶段架构的问题,以实现高保真(44.1kHz)的语音增强与带宽扩展。 方法核心是提出一个名为DAC-SE1的单阶段框架,该框架直接使用44.1kHz的DAC离散音频令牌作为输入和输出,由一个基于LLaMA的1B参数自回归模型进行处理,无需额外的语义编码器或多阶段流水线。 与已往工作相比,新方法的新颖之处在于:1)直接操作高分辨率DAC令牌,保留了精细的声学细节;2)架构高度简化,统一了增强与带宽扩展任务;3)通过扩大模型参数和训练数据规模来提升性能。 主要实验结果表明,DAC-SE1在HiFiTTS-2测试集的客观指标(如DNSMOS OVRL: 2.95)和MUSHRA主观评分(58.3分)上均优于LLaSE-G1和VoiceFixer等基线。在ICASSP 2022 PLC挑战中,其PLCMOS分数达到4.34,超越了所有对比方法。在ICASSP 2023 DNS挑战中,性能与最强基线持平。 该工作的实际意义在于证明了通过简单、可扩展的自回归语言模型范式,结合高质量的音频离散表示,能够实现统一且高质量的语音增强任务,为未来构建通用音频生成模型提供了新思路。 主要局限性是论文未详细讨论模型的计算效率、训练成本以及在不同噪声类型或极低信噪比条件下的泛化能力,且其性能提升部分依赖于庞大的模型参数,可能限制了实际部署场景。 ...

2026-04-29

How Far Do SSL Speech Models Listen for Tone? Temporal Focus of Tone Representation under Low-Resource Transfer

📄 How Far Do SSL Speech Models Listen for Tone? Temporal Focus of Tone Representation under Low-Resource Transfer #语音识别 #自监督学习 #迁移学习 #多语言 #低资源 ✅ 6.5/10 | 前50% | #语音识别 | #自监督学习 #迁移学习 | #自监督学习 #迁移学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Minu Kim(KAIST电气工程学院) 通讯作者:未说明 作者列表:Minu Kim(KAIST电气工程学院)、Ji Sub Um(KAIST电气工程学院)、Hoirin Kim(KAIST电气工程学院) 💡 毒舌点评 这篇论文系统性地分析了四种复杂声调语言在SSL模型中的表示,并创新性地使用梯度敏感性分析来量化“听”的时间范围,这是其最大的方法学亮点。但其核心贡献更偏向于现象观察与分析,而非提出一个新的、可直接用于提升性能的模型或算法,且实验部分仅限于分析现有模型,缺乏提出新方法或在标准benchmark上与SOTA对比,因此影响力受限。 🔗 开源详情 代码:论文中仅提及并引用了一个用于缅甸语文本到音素转换的开源工具(burmese-G2P)。未提及本论文核心实验(模型微调、梯度分析等)的代码仓库链接。 模型权重:未提及是否公开微调后的SSL模型权重。 数据集:使用的FLEURS, CommonVoice, RAVDESS, LibriSpeech, VoxCeleb1均为公开数据集,论文给出了引用。 Demo:未提及。 复现材料:未说明训练细节(如学习率、batch size)、硬件配置、完整的分析脚本或配置文件。仅提供了方法的大致描述和G2P工具链接。 论文中引用的开源项目:引用了 burmese-G2P(G2P工具)、Phonemizer [25](文本转音素工具)。 整体开源情况:论文未提及完整的开源计划。仅部分依赖于已有的开源工具,核心研究内容的复现需要大量额外工作。 📌 核心摘要 问题:自监督学习(SSL)语音模型在表示词汇声调方面的能力,尤其是在普通话以外的复杂声调语言中尚未得到充分研究,其在低资源条件下的迁移机制也不明确。 方法核心:首先利用声学特征(log-Mel)和逻辑回归建立各语言声调识别所需的最佳时间跨度基线;然后,提出一种基于梯度的层间探测方法,通过分析SSL模型(如XLS-R)在微调后对声调分类的梯度能量分布,来量化模型对声调信息的时间关注范围(中心半径 r_com)。 新意:研究拓展了普通话以外的声调语言(缅甸语、泰语、老挝语、越南语),并首次系统分析了SSL模型对声调的“时间分辨率”以及不同微调任务(ASR、情绪识别、性别分类等)如何塑造这种分辨率。 主要实验结果:声学基线显示,缅甸语/泰语声调需约100ms时间窗口,老挝语/越南语需约180ms。梯度分析表明,在目标语言ASR微调后,SSL模型的梯度能量分布与这些语言特定的时间基线最为匹配(见图3,图5)。相比之下,基于语音韵律或说话人属性的微调任务导致模型关注的时间跨度过长,偏离声调本质。具体宏F1分数图表见图4,但论文未给出所有对比的精确数值。 实际意义:为低资源声调语言的语音技术(如ASR)提供了选择预训练模型和微调策略的指导,强调了微调任务与语言声调特性对齐的重要性。 主要局限性:研究仅限于分析现有模型,并未提出新的模型架构或训练目标;结论主要基于声调分类的探测任务,对实际ASR或TTS性能的提升效果未直接验证;所分析的模型和任务组合虽全面,但未与其他旨在提升声调表示的特定方法进行对比。 🏗️ 模型架构 本文并未提出新的模型架构,而是对现有的自监督语音表征模型进行分析。论文中分析的模型主要包括: ...

2026-04-29

How to Label Resynthesized Audio: The Dual Role of Neural Audio Codecs in Audio Deepfake Detection

📄 How to Label Resynthesized Audio: The Dual Role of Neural Audio Codecs in Audio Deepfake Detection #音频深度伪造检测 #数据集 #模型评估 #语音合成 ✅ 7.5/10 | 前25% | #音频深度伪造检测 | #数据集 | #模型评估 #语音合成 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yixuan Xiao (斯图加特大学自然语言处理研究所) 通讯作者:未说明(论文未明确指出) 作者列表:Yixuan Xiao (斯图加特大学自然语言处理研究所)、Florian Lux (AppTek GmbH)、Alejandro Pérez-González-de-Martos (AppTek GmbH)、Ngoc Thang Vu (斯图加特大学自然语言处理研究所) 💡 毒舌点评 论文精准地抓住了“编解码器重合成音频既像好人又像坏人”这个痛点,并用一套严谨的实验给出了“看它心是为压缩而跳还是为合成而跳”的诊断思路,实用性拉满。不过,作者似乎更满足于揭示“病症”和提出“用药建议”,而对如何从根源上(即检测器架构层面)提升对这类模糊样本的鲁棒性,着墨甚少。 🔗 开源详情 代码:提供。论文中给出了GitHub仓库链接:https://github.com/XIAOYixuan/IMS-ADD/tree/codec-add,包含了训练脚本和代码库。 模型权重:未明确提及是否开源预训练的检测器权重。 数据集:公开。提供了两个获取途径:HuggingFace (https://huggingface.co/datasets/Flux9665/CodecDeepfakeDetection) 和 Zenodo (https://zenodo.org/records/17225924)。 Demo:未提及。 复现材料:提供了详细的训练超参数、数据增强策略、��据集划分统计等关键复现信息。 论文中引用的开源项目:引用了多个开源TTS系统和NAC模型作为攻击源,包括Llasa (XCodec2), MARS5 (EnCodec), CSM (Mimi), OpenAudio S1-mini (DAC), CosyVoice2/Chatterbox (S3Tokenizer),以及检测器AASIST。 📌 核心摘要 本文针对音频深度伪造检测领域中神经音频编解码器(NAC)的双重角色问题展开研究。NAC既可用于音频压缩传输(产生编解码器重合成音频CoRS),又可作为语音合成系统的声码器(产生编解码器语音合成音频CoSG)。这使得训练检测器时面临困境:CoRS应标注为真实还是伪造?为解决此问题,本文构建了一个基于ASVspoof 5协议的扩展数据集CodecDeepfakeDetection,包含多种TTS系统(Llasa, MARS5等)和NACs(EnCodec, Mimi, DAC等)。核心创新在于系统性地评估了将CoRS标注为“真实”或“伪造”对不同检测器(X-AASIST, LWBN)性能的影响。实验发现,标注策略的有效性取决于NAC的设计目标:对于以压缩为导向的NAC(如EnCodec, DAC),将其重合成音频标注为伪造会导致检测器过度学习编解码器伪影,从而错误拒绝经该NAC压缩的真实音频;而对于以合成为导向的NAC(如Mimi),将其标注为伪造更有效。主要实验结果表明,未使用NAC数据增强的基线模型在面对混合了CoRS的测试集时,等错误率(EER)高达约40%,而采用合适的增强策略(对部分NAC作为真实数据)可将其显著降低约8-11个百分点。本文的实际意义在于为构建对编解码器技术演变更鲁棒的检测系统提供了明确的数据标注指南。主要局限性在于研究主要集中于分析和提供见解,而非提出一个全新的、能统一处理此类模糊性的检测模型。 ...

2026-04-29

HVAC-EAR: Eavesdropping Human Speech Using HVAC Systems

📄 HVAC-EAR: Eavesdropping Human Speech Using HVAC Systems #音频安全 #时频分析 #端到端 #工业应用 #鲁棒性 🔥 8.5/10 | 前25% | #音频安全 | #时频分析 | #端到端 #工业应用 学术质量 6.2/7 | 选题价值 1.8/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Tarikul Islam Tamiti(George Mason University, 网络安全工程系) 通讯作者:未说明 作者列表:Tarikul Islam Tamiti(George Mason University, 网络安全工程系)、Biraj Joshi(George Mason University, 网络安全工程系)、Rida Hasan(George Mason University, 网络安全工程系)、Anomadarshi Barua(George Mason University, 网络安全工程系) 💡 毒舌点评 亮点:这是一篇视角独特的安全研究论文,揭示了HVAC系统这一庞大基础设施中潜在的、令人意想不到的语音窃听渠道,并给出了从低质量信号中恢复可理解语音的完整技术方案,具有很强的现实警示意义。短板:其威胁模型的通用性值得商榷,评估仅限于特定距离(0.5m训练,1.2m测试)、单一语言(英语)和受控环境,实际复杂场景(如多重噪声、多说话人)下的鲁棒性尚未验证,可能简化了现实世界的攻击难度。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:论文中提到“The dataset will be made open source after acceptance of the paper.”,即数据集计划在论文被接受后开源。 Demo:未提及。 复现材料:论文在附录或正文中提供了部分训练细节,如模型大小(61.6M)、损失函数的具体设计(复数多分辨率STFT损失,S=3,具体分辨率参数)、硬件(NVIDIA 4090 GPU)。但学习率、优化器、训练轮数等关键训练超参数未在提供的文本中说明。 论文中引用的开源项目:论文引用了多个作为基线的开源工作,包括NU-Wave [22]、AP-BWE [23]、AERO [24] 和 PHASEN [15],但未提及使用了其他特定的开源代码库或工具。 总结:论文有明确的开源数据集计划,并提供了部分复现信息,但整体复现材料(尤其是代码和模型权重)不完整。 📌 核心摘要 本文旨在揭示并解决利用暖通空调(HVAC)系统中的差压传感器(DPS)进行语音窃听的新型隐私威胁。核心方法是提出了HVAC-EAR,一个基于复数域U-Net的语音重建模型,它能将低采样率(0.5-2 kHz)、高噪声的DPS压力数据,重构为采样率高达8 kHz的可理解语音。与之前仅能进行关键词检测或依赖特定振动传感器的工作相比,HVAC-EAR的新颖之处在于:(1)设计了复杂统一注意力模块(CUAB),能够捕捉时频谱图上的全局音素依赖关系;(2)采用复数多分辨率短时傅里叶变换(STFT)损失,联合重建幅度和相位,有效抑制了HVAC系统的瞬态噪声。主要实验结果表明,在真实HVAC设施中,HVAC-EAR在0.5m距离下训练的模型,能在1.2m距离内重构出具有显著可懂度的语音(以STOI、PESQ、NISQA-MOS等指标衡量),性能优于NU-Wave、AERO等基线模型。例如,在0.5 kHz → 8 kHz上采样任务中,其SI-SDR为8.88 dB,显著高于原始压力数据的4.24 dB。这项工作的实际意义是首次实证了HVAC DPS可能被用作窃听工具,对医院、洁净室等敏感环境的语音隐私构成了新威胁。主要局限性是其评估距离有限(超过1.2m性能急剧下降),且仅在英语数据集上进行验证。 ...

2026-04-29

Hybrid Pruning: In-Situ Compression of Self-Supervised Speech Models for Speaker Verification and Anti-Spoofing

📄 Hybrid Pruning: In-Situ Compression of Self-Supervised Speech Models for Speaker Verification and Anti-Spoofing #说话人验证 #语音伪造检测 #自监督学习 #结构化剪枝 #低资源 🔥 8.0/10 | 前25% | #说话人验证 | #自监督学习 | #语音伪造检测 #结构化剪枝 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junyi Peng (Brno University of Technology, Speech@FIT) 通讯作者:未说明 作者列表:Junyi Peng¹, Lin Zhang², Jiangyu Han¹, Oldřich Plchot¹, Johan Rohdin¹, Themos Stafylakis³,⁴,⁵, Shuai Wang⁶, Jan Černocký¹ (1. Speech@FIT, Brno University of Technology, Czechia; 2. Johns Hopkins University, USA; 3. Athens University of Economics and Business; 4. Omilia; 5. Archimedes/Athena R.C., Greece; 6. Nanjing University, China) 💡 毒舌点评 亮点在于优雅地将模型剪枝与任务微调合并为单阶段训练,省去了复杂的多步流水线,且在多个基准上效果拔群,甚至能充当正则化提升泛化能力;短板在于对“为什么学出的剪枝模式是这样的”这一现象的理论解释稍显薄弱,更多是现象描述而非机理剖析。 ...

2026-04-29

HyFlowSE: Hybrid End-To-End Flow-Matching Speech Enhancement via Generative-Discriminative Learning

📄 HyFlowSE: Hybrid End-To-End Flow-Matching Speech Enhancement via Generative-Discriminative Learning #语音增强 #流匹配 #端到端 #轻量化模型 🔥 8.0/10 | 前25% | #语音增强 | #流匹配 | #端到端 #轻量化模型 学术质量 6.2/7 | 选题价值 1.6/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Yang Zhang(杭州电子科技大学 通信工程学院) 通讯作者:Wenbin Jiang(杭州电子科技大学 通信工程学院,邮箱:wbjiang@hdu.edu.cn) 作者列表:Yang Zhang(杭州电子科技大学 通信工程学院),Wenbin Jiang(杭州电子科技大学 通信工程学院),Zhen Wang(杭州电子科技大学 通信工程学院),KaiYing Wu(杭州电子科技大学 通信工程学院),Wen Zhang(杭州电子科技大学 通信工程学院),Fei Wen(上海交通大学 信息科学与电子工程学院) 💡 毒舌点评 亮点在于巧妙地利用可微分ODE这一技术“胶水”,将本应用于生成建模的流匹配与用于精细监督的判别损失无缝融合,以端到端方式显著提升了轻量级模型的性能,方案优雅且有效。短板在于其创新主要停留在训练策略的集成上,网络架构本身(NCSN++)并无新意,且论文缺乏对判别损失如何具体指导向量场学习这一内在机制的更深入剖析。 🔗 开源详情 代码:论文中提供了项目主页链接 https://zhangyang77.github.io/HyFlowSE/,可用于访问音频样本等材料。论文中未明确提及代码仓库链接。 模型权重:未提及是否公开预训练模型权重。 数据集:使用了公开数据集(VoiceBank+DEMAND, WSJ0, DEMAND, CHiME3),并说明了部分数据生成方式(使用StoRM开源代码)。未提及是否提供预处理后的数据。 Demo:项目主页提供了音频样本,可作为在线演示。 复现材料:论文给出了模型参数规模、损失函数权重(α, β, w值)、优化器及学习率。但缺少batch size、训练步数/轮数、数据预处理细节、硬件环境等关键复现信息。 论文中引用的开源项目:引用了用于生成WSJ0数据集的 StoRM 开源代码,以及用于可微分ODE求解的 torchdiffeq 库。 总结:论文提供了部分复现信息和展示页面,但未声明开源计划,也未提供完全复现所需的全部细节。 📌 核心摘要 解决的问题:纯生成式的流匹配语音增强模型在追求轻量化(参数少)和高效率(低NFE)时,性能会显著下降,而现有的级联或两阶段解决方案会引入额外的推理步骤,增加计算开销,违背了流匹配高效推理的初衷。 方法核心:提出HyFlowSE框架,其核心是将标准的条件流匹配(CFM)生成损失与一个由L1损失、多分辨率STFT谱收敛损失和对数STFT幅度损失组成的判别性损失相结合。通过利用可微分的神经常微分方程(Neural ODE)求解器,这两个损失可以在一次前向传播中计算,并实现端到端联合优化。 与已有方法的新颖之处:与需要级联多个流模型(如CasFlowSE)或依赖预训练判别模型的方法不同,HyFlowSE在单一模型和单次推理流程中集成了生成与判别目标,不增加推理时的NFE,实现了效率与性能的兼得。 主要实验结果:在VoiceBank+DEMAND数据集上,仅5.2M参数的HyFlowSE(T)模型在PESQ(3.21)上超过了65.6M参数的FlowSE(3.12)。在更具挑战性的WSJ0+CHiME3低信噪比(L)场景下,HyFlowSE(T)(5.2M)的PESQ达到3.09,大幅超越27.8M参数的FlowSE(M)(2.64)和CasFlowSE(2.64)。在混响条件下(WSJ0+Reverb),其PESQ(2.95)也优于FlowSE(M)(2.45)和CasFlowSE(2.80)。 实际意义:为在资源受限设备上部署高性能语音增强系统提供了新路径。它表明通过精心的训练目标设计,可以用更小的模型达到甚至超越大模型的性能,对降低算法落地成本和功耗有直接价值。 主要局限性:网络骨干(NCSN++)并非新颖设计,创新性集中在训练目标上。论文未详细分析混合损失中各项权重的敏感性及其背后的机理。实验未与更多非流匹配的轻量级判别模型(如DCCRN等)进行对比,难以全面评估其在轻量化模型谱系中的绝对位置。 🏗️ 模型架构 HyFlowSE是一个端到端的语音增强框架,其整体架构如图1所示。 ...

2026-04-29

I-DCCRN-VAE: An Improved Deep Representation Learning Framework for Complex VAE-Based Single-Channel Speech Enhancement

📄 I-DCCRN-VAE: An Improved Deep Representation Learning Framework for Complex VAE-Based Single-Channel Speech Enhancement #语音增强 #变分自编码器 #预训练 #鲁棒性 ✅ 7.5/10 | 前25% | #语音增强 | #变分自编码器 | #预训练 #鲁棒性 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jiatong Li(Carl von Ossietzky Universität Oldenburg, 医学物理与声学系及 Hearing4all 卓越集群) 通讯作者:未说明(两位作者并列提供邮箱,未明确指定通讯作者) 作者列表:Jiatong Li(Carl von Ossietzky Universität Oldenburg, 医学物理与声学系及 Hearing4all 卓越集群)、Simon Doclo(Carl von Ossietzky Universität Oldenburg, 医学物理与声学系及 Hearing4all 卓越集群) 💡 毒舌点评 本文像一位严谨的工程师,将VAE语音增强系统的“后门”(跳跃连接)焊死,强迫其从潜在空间“真正学习”,并用β-VAE的旋钮精细调节学习内容,结果泛化能力显著提升。然而,改进更多是“修补”与“优化”现有架构,缺乏从根本上改变游戏规则的洞见,且未能与当前生成模型SOTA(如基于扩散模型的方法)同台竞技,使其影响力打了折扣。 ...

2026-04-29

IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter-Band Prediction

📄 IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter-Band Prediction #语音编码 #语音合成 #信号处理 #轻量模型 #流式处理 ✅ 7.0/10 | 前25% | #语音编码 | #信号处理 | #语音合成 #轻量模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Peng Zhou(北京理工大学) 通讯作者:Shenghui Zhao*(北京理工大学) 作者列表:Peng Zhou(北京理工大学),Xiaojiao Chen(北京理工大学),Pincheng Lu(北京理工大学),Jing Wang(北京理工大学),Shenghui Zhao*(北京理工大学) 💡 毒舌点评 亮点:论文精准抓住了“低比特率下低频更重要”这一经典信号处理直觉,并将其与神经网络结合,通过一个轻量的带间预测模块(IBPM)在解码端“猜”出高频,以极小的计算代价(0.35 GMACs)实现了有竞争力的性能,这种“巧劲”值得在资源受限场景下借鉴。 短板:IBPM目前的结构(三层逐点卷积)过于简单,其预测能力存在明显天花板(当P=0.5时质量下降),本质上仍是低频信息的线性外推,论文未探讨更强大的生成式预测模型(如扩散模型)的可能性;此外,模型在1 kbps下的绝对质量(PESQ 2.2)距离“可用”仍有距离,创新性更多是工程上的巧妙设计而非原理性突破。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:论文中未提及。 数据集:使用了LibriTTS和VCTK公开数据集,但论文中未提供具体的数据预处理脚本或说明。 Demo:论文中未提及。 复现材料:论文中提供了详细的训练硬件(单卡RTX 3090)、优化器参数、学习率调度、STFT参数、模型结构配置(层数、通道数、卷积核大小等),复现指导较为充分。 引用的开源项目:论文提到了FunCodec、FocalCodec、Hifi-codec等开源工具或相关工作,但未明确说明IBPCodec的代码是否基于或借鉴了这些项目。 📌 核心摘要 这篇论文针对当前神经语音编解码器计算复杂度过高、难以在边缘设备部署的问题,提出了一种名为IBPCodec的低比特率轻量级语音编解码器。其核心方法是优先对输入语音的低频部分(占比P=75%)进行编码和量化传输,在解码端利用一个轻量的带间预测模块(IBPM)从解码出的低频信息中预测高频成分,从而恢复完整语音。与先前直接丢弃高频或整体编码的方法相比,该创新点在于将频带优先传输与神经预测相结合。实验结果显示,在16 kHz采样率、1-3 kbps比特率下,IBPCodec的计算复杂度仅为0.35 GMACs(远低于DAC的55.66G和SpeechTokenizer的17.09G),其PESQ、SI-SDR等客观指标及MUSHRA主观评分均优于或持平FreqCodec、SpeechTokenizer等基线。该工作的实际意义在于为低功耗设备上的实时语音通信提供了一种高效的编解码方案。其主要局限性在于IBPM的预测能力有限,在更低频带占比(P=0.5)时性能下降,且模型在极低比特率下的绝对语音质量仍有提升空间。 ...

2026-04-29

ICASSP 2026 - 主动噪声控制 论文列表

ICASSP 2026 - 主动噪声控制 共 1 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Synchronous Secondary Path Modeling and Kronecker-Factorized 7.0分 前25% 📋 论文详情 🥇 Synchronous Secondary Path Modeling and Kronecker-Factorized Adaptive Algorithm for Multichannel Active Noise Control ✅ 7.0/10 | 前25% | #主动噪声控制 | #Kronecker分解 #信号处理 | #Kronecker分解 #信号处理 👥 作者与机构 第一作者:Siyuan Lian(南京大学现代声学实验室,南京大学-蔚来智能音频实验室) 通讯作者:未说明 作者列表:Siyuan Lian(南京大学现代声学实验室,南京大学-蔚来智能音频实验室)、Lu Bai(南京大学现代声学实验室,南京大学-蔚来智能音频实验室)、Tianyou Li(南京大学现代声学实验室,南京大学-蔚来智能音频实验室)、Kai Chen(南京大学)、Jing Lu(南京大学现代声学实验室,南京大学-蔚来智能音频实验室) 💡 毒舌点评 这篇论文的亮点在于将Kronecker分解(KPD)这一经典工具巧妙地“移植”到多通道ANC的次级路径建模中,利用声学路径天然的低秩特性实现了“又快又准”的同步建模,思路清晰且实验验证扎实。然而,其短板在于对“低秩性”这一核心假设的普适性讨论略显不足,且在实际系统部署中如何动态选择最优秩P值缺乏指导,使得该方法更像是一个针对特定场景(空间相关性强)的优化,而非普适的解决方案。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:实验数据为自采集,未提及公开。 Demo:未提供在线演示。 复现材料:论文给出了部分关键参数(采样率、滤波器长度、J₁/J₂值、步长),但未提供完整的训练/测试脚本、配置文件或预训练检查点。 论文中引用的开源项目:未提及依赖的开源工具或模型。 总结:论文中未提及开源计划。 📌 核心摘要 ...

2026-04-29