Acoustic Feedback Cancellation in Hearing Aids Exploiting an Inertial Sensor

📄 Acoustic Feedback Cancellation in Hearing Aids Exploiting an Inertial Sensor #音频分类 #信号处理 #实时处理 #多模态模型 #辅助技术 ✅ 7.0/10 | 前25% | #音频分类 | #信号处理 | #实时处理 #多模态模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Sina Miran(完成主要工作时隶属Starkey Hearing Technologies,现隶属于Apple Inc.) 通讯作者:Henning Schepker(Starkey Hearing Technologies, 邮箱:henning.schepker@starkey.de) 作者列表: Sina Miran(Starkey Hearing Technologies, Eden Prairie, MN, US; 现为 Apple Inc.) Henning Schepker(Starkey Hearing Technologies, Eden Prairie, MN, US) Ivo Merks(现为 Chromatic, 完成工作时隶属Starkey Hearing Technologies) Martin McKinney(Starkey Hearing Technologies, Eden Prairie, MN, US) 💡 毒舌点评 亮点:巧妙地将惯性传感器(IMU)这一“非听觉”模态引入声反馈消除,利用头部运动与声学路径变化的相关性来动态调整算法参数,在稳态性能上确实优于纯音频基线方法,思路新颖且实用。 短板:实验仅在5名受试者和有限的几种日常活动上进行,且最终的端到端AFC性能提升(如图3所示)并非全面碾压所有基线,尤其在外部物体导致路径变化但头部未动时存在检测延迟,其普鲁棒性和泛化能力仍需在更大规模、更复杂的现实场景中验证。 ...

2026-04-29

Acoustic Non-Stationarity Objective Assessment with Hard Label Criteria for Supervised Learning Models

📄 Acoustic Non-Stationarity Objective Assessment with Hard Label Criteria for Supervised Learning Models #音频分类 #时频分析 #信号处理 #实时处理 #模型评估 ✅ 7.0/10 | 前25% | #音频分类 | #时频分析 | #信号处理 #实时处理 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:未说明(论文作者列表无排序信息) 通讯作者:未说明 作者列表:Guilherme Zucatelli, Ricardo Barioni, Gabriela Dantas(SiDi - Intelligence & Innovation Center, S˜ao Paulo, Brazil) 💡 毒舌点评 亮点在于巧妙地将复杂、难以实时化的非平稳性统计指标(INS)“蒸馏”成易于学习的二进制标签,并训练出专用轻量模型(NANSA),实现了速度上近4000倍的飞跃。短板则在于,这套方法的“地基”——HLC标签的生成——本身仍然依赖那个被诟病“计算不友好”的原始INS算法,颇有“用更累的方法证明自己可以轻松”的悖论感,且任务场景相对狭窄。 📌 核心摘要 要解决什么问题? 传统的声学非平稳性客观评估方法(如INS)计算复杂度高,需要生成合成参考信号并进行多尺度频谱比较,难以应用于实时处理或资源受限的设备。 方法核心是什么? 提出硬标签准则(HLC)算法。该算法将INS在不同观测尺度下的值划分为几个区域,通过多数投票为整个信号生成一个二值(平稳/非平稳)标签。利用此标签作为监督信号,训练了专用的声学非平稳性评估网络(NANSA及其轻量版NANSALW)。 与已有方法相比新在哪里? 首次提出一种客观的、自动化的准则(HLC)将多尺度的INS连续值转化为可用于监督学习的全局标签。基于此,设计了专门针对非平稳性评估的轻量级Transformer模型(NANSA),避免了通用大模型的冗余计算。 主要实验结果如何? 在AudioSet、DCASE和FSD50K三个数据集上,NANSA模型的分类准确率最高达到94.25%(比最强基线AST高1.8个百分点),EER(等错误率)最低降至2.68%(比最强基线降低49.1%)。最关键的是,NANSA推理速度比传统INS算法快约466倍,NANSALW快约3957倍。 关键实验数据表格: 模型 参数量 (M) MMACs AudioSet Acc (%) AudioSet EER (%) AudioSet F1 DCASE Acc (%) DCASE EER (%) DCASE F1 FSD50K Acc (%) FSD50K EER (%) FSD50K F1 PANNs 81.04 1736 90.82 9.25 0.925 98.27 6.37 0.578 92.52 7.21 0.931 AST 94.04 16785 92.37 7.92 0.938 98.20 5.48 0.594 93.86 6.26 0.943 PaSST 83.35 15021 92.02 8.24 0.936 98.35 5.26 0.612 94.18 5.80 0.948 NANSA 5.50 585 94.25 5.87 0.954 99.01 2.68 0.801 95.41 4.59 0.958 NANSALW 0.66 88 93.27 6.73 0.946 98.89 2.91 0.780 94.93 4.95 0.955 实际意义是什么? 为声学信号非平稳性评估提供了一种高效、可部署的替代方案,使其能够应用于实时语音处理、边缘计算设备等场景,支撑基于非平稳性的下游音频任务。 主要局限性是什么? 1) HLC标签生成过程本身仍然依赖计算密集的传统INS方法,只是将计算压力转移到了离线标签生成阶段。2) 方法丢失了INS原本提供的多尺度、连续的平稳性信息,仅输出一个二值标签。3) 论文未提供开源代码或详细复现指南。 🏗️ 模型架构 NANSA模型是一个用于二分类的端到端神经网络,整体架构如图2所示,包含两个核心模块: ...

2026-04-29

Acoustic Teleportation Via Disentangled Neural Audio Codec Representations

📄 Acoustic Teleportation Via Disentangled Neural Audio Codec Representations #神经音频编解码器 #语音增强 #音频场景理解 #信号处理 #解纠缠学习 ✅ 7.0/10 | 前25% | #语音增强 | #神经音频编解码器 | #音频场景理解 #信号处理 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Philipp Grundhuber(Fraunhofer Institute for Integrated Circuits (IIS), Erlangen, Germany) 通讯作者:未说明 作者列表:Philipp Grundhuber†(Fraunhofer Institute for Integrated Circuits (IIS)), Mhd Modar Halimeh†,§(† Fraunhofer Institute for Integrated Circuits (IIS);§ 现任职于Starkey Hearing Technologies), Emanuël A. P. Habets⋆(International Audio Laboratories Erlangen) 💡 毒舌点评 本文在“声学传送”这个颇具未来感的细分赛道上,用扎实的工程改进(EnCodec架构 + 多任务训练)把基线方法(Omran et al.)远远甩在了后面,消融实验和可视化分析做得相当全面。然而,一个明显的短板是它处理“传送”的极限能力不足——当两个房间的混响时间差别大于0.8秒时,输出质量就明显下降,这基本锁死了它在真实复杂声学环境中大规模应用的天花板。 ...

2026-04-29

Adaptive Per-Channel Energy Normalization Front-End for Robust Audio Signal Processing

📄 Adaptive Per-Channel Energy Normalization Front-End for Robust Audio Signal Processing #音频分类 #自适应处理 #信号处理 #音频前端 #鲁棒性 ✅ 7.5/10 | 前25% | #音频分类 | #自适应处理 | #信号处理 #音频前端 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Hanyu Meng(悉尼新南威尔士大学,The University of New South Wales, Sydney, Australia) 通讯作者:未说明 作者列表:Hanyu Meng(悉尼新南威尔士大学)、Vidhyasaharan Sethu(悉尼新南威尔士大学)、Eliathamby Ambikairajah(悉尼新南威尔士大学)、Qiquan Zhang(阿里巴巴集团,通义语音实验室,Tongyi Speech Lab, Alibaba Group, China)、Haizhou Li(香港中文大学(深圳)人工智能学院,School of Artificial Intelligence, The Chinese University of Hong Kong, Shenzhen, China) 💡 毒舌点评 论文的亮点在于将自适应机制从频谱分解(如滤波器Q值)下沉到了动态范围压缩(PCEN)阶段,并通过一个极简的神经控制器实现,思路清晰且在多个任务上验证了有效性,特别是在噪声和响度变化场景下表现突出。然而,其“自适应”本质上仍是对两个参数进行实时回归预测,创新程度有限,且未与当前更强的音频表示学习(如AST, BYOL-A等)或端到端自适应方法进行充分对比,说服力稍显不足。 ...

2026-04-29

Adaptive Rotary Steering with Joint Autoregression for Robust Extraction of Closely Moving Speakers in Dynamic Scenarios

📄 Adaptive Rotary Steering with Joint Autoregression for Robust Extraction of Closely Moving Speakers in Dynamic Scenarios #语音分离 #信号处理 #麦克风阵列 #自回归模型 🔥 8.5/10 | 前25% | #语音分离 | #信号处理 | #麦克风阵列 #自回归模型 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jakob Kienegger(汉堡大学信号处理系) 通讯作者:Timo Gerkmann(汉堡大学信号处理系) 作者列表:Jakob Kienegger(汉堡大学信号处理系),Timo Gerkmann(汉堡大学信号处理系) 💡 毒舌点评 这篇论文的亮点在于巧妙地将旋转转向的“优雅数学”与自回归的“实用主义”结合,构建了一个模块化且鲁棒的框架,在说话人紧密移动时表现出色;但其跟踪模块对复杂运动模型的依赖(如正弦轨迹假设)和系统对初始方向估计的敏感性,可能成为其在更无序真实场景中广泛应用的瓶颈。 📌 核心摘要 本文针对动态声学场景(如说话人移动、交叉)中,现有空间选择性滤波(SSF)方法在目标说话人接近或交叉时性能下降的问题,提出了一种基于Ambisonics的自适应旋转导向与联合自回归框架。该方法核心是:(1) 通过一个跟踪算法,自动将录制的声场实时旋转对齐至目标说话人方向(自适应旋转导向);(2) 将前一帧的增强语音信号,作为额外输入同时反馈给跟踪网络(AR-TST)和增强网络(AR-SSF),形成联合自回归循环。与已有方法相比,新在:a) 实现了旋转转向的自动化以处理动态场景;b) 提出在跟踪和增强两个环节同时利用语音时频线索进行反馈,弥补空间线索失效的缺陷。实验在合成三说话人数据集和真实录音上进行,结果表明:在说话人角距离小于15°时,AR-TST使跟踪误差显著降低;在合成数据上,联合AR框架使McNet的PESQ达到2.17,超过强引导基线(2.21)并远超固定旋转引导(1.97)。实际意义在于为会议、助听等场景提供了一种不依赖持续外部引导、鲁棒的说话人提取方案。主要局限包括对目标初始方向有一定依赖,以及合成轨迹模型可能无法完全覆盖真实世界运动的多样性。 🏗️ 模型架构 本文提出的不是一个单一的神经网络模型,而是一个集成框架,它将旋转转向(Rotary Steering)、目标说话人跟踪(TST)和空间选择性滤波(SSF)增强模块组合在一起,以处理动态场景下的目标说话人提取(TSE)问题。其整体架构如下图所示: 该架构的核心是利用Ambisonics信号的旋转不变性进行条件化处理,并创新性地引入了联合自回归(AR)反馈。具体流程分解如下: 输入与初始对齐:输入为球形麦克风阵列录制的Ambisonics信号 Yt,包含目标说话人 St 和噪声/干扰 Vt。系统仅需目标说话人的初始到达方向 (θ0, ϕ0) 作为弱引导。 自适应旋转导向(Adaptive Rotary Steering): 跟踪模块 (TST):输入的 Yt 首先经过一个固定旋转导向,即使用Wigner-D矩阵 D0 将声场中心旋转至初始方向 (θ0, ϕ0)。这使得跟踪网络(如SELDnet)的任务从估计绝对方向变为估计相对于初始方向的角偏差 (Δθt, Δϕt),降低了学习难度。在AR版本中(AR-TST),前一帧增强后的语音 Ŝt-1 也作为额外输入提供给跟踪网络,利用目标语音的时频相关性来提升跟踪鲁棒性,尤其在说话人接近或交叉时。 导向更新:跟踪模块输出角偏差,与初始方向结合得到当前帧的估计方向 (θt, ϕt),进而计算当前帧的旋转矩阵 Dt。 增强模块 (SSF): 使用旋转矩阵 Dt 将原始观测 Yt 实时旋转,使目标说话人方向始终位于声场中心。这个旋转后的信号作为增强网络(如McNet或SpatialNet)的输入。 在AR版本中(AR-SSF),前一帧增强后的语音 Ŝt-1 同样被拼接为一个额外通道输入网络,利用语音信号自身的时频连续性来辅助分离。 联合自回归循环:增强模块的输出 Ŝt 被反馈,作为下一帧跟踪(AR-TST)和增强(AR-SSF)的额外输入,形成一个闭环的联合自回归框架(图1c)。这种反馈机制是解决空间线索(DoA)在说话人接近时失效问题的关键。 该架构的关键设计选择在于将旋转转向作为一种通用的、与具体网络无关的条件化机制。无论是跟踪网络还是增强网络,都可以通过这种预处理适配到该框架中,无需修改网络内部结构。 ...

2026-04-29

Adaptive Spectral Weighting in Sagittal-Plane Sound Localization: A Reliability-Driven Approach

📄 Adaptive Spectral Weighting in Sagittal-Plane Sound Localization: A Reliability-Driven Approach #声源定位 #贝叶斯推理 #信号处理 #空间音频 #模型评估 ✅ 6.5/10 | 前25% | #声源定位 | #贝叶斯推理 | #信号处理 #空间音频 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Yunda Chen 通讯作者:Nengheng Zheng (nhzheng@szu.edu.cn) 作者列表:Yunda Chen, Hui Zeng, Nengheng Zheng*(深圳大学,电子信息工程学院) 💡 毒舌点评 这篇论文的亮点在于它承认并试图建模听觉感知中“动态权重调整”这一人性化但常被忽视的特性,提出的自适应加权方案在理论上更具生物合理性。但短板也明显:其验证场景主要是基于降质的合成听觉条件(如声码器处理),这更像是证明模型在特定退化下的鲁棒性,而非证明自适应机制在自然复杂环境下的普适优越性,因此结论的外推性有待商榷。 📌 核心摘要 解决什么问题:现有矢状面(上下方向)声源定位模型多采用固定的频谱加权方案,忽略了人类听觉系统会根据输入信号的可靠性动态调整不同频段贡献的这一事实,尤其是在感知线索退化的条件下。 方法核心是什么:提出了一种基于贝叶斯推理的计算模型。核心创新是引入了一种自适应频谱加权方案,该方案能根据主导频谱凹陷区域(6-9kHz)的可靠性(用频谱互相关ρ衡量)动态调整权重。模型参数对每位听众进行了个体化校准。 与已有方法相比新在哪里:将动态、依赖于信号可靠性的频谱加权机制整合到贝叶斯定位框架中。与四种来自先前研究的固定加权方案(Flat, NR, DT, SV_GL)进行系统比较。 主要实验结果如何: 对于宽带噪声刺激(高感知置信度),在组水平上没有发现某一种加权方案具有稳定优势(保护超出概率PXP均接近随机水平)。 对于经声码器降质的点击序列刺激(模拟不同频谱分辨率,降低感知置信度),组水平PXP同样未显示明确偏好(SV_GL最高为0.281,但贝叶斯模型选择风险BOR为0.68,说明模型间差异不显著)。 关键发现(图4):在单个低置信度被试(NH12)的例子中,自适应加权方案的预测结果最接近人类实际反应。随着频谱线索减少,人类反应分布趋近于模型的双峰先验分布,该趋势也被模型捕获。 论文未提供所有被试的详细定量对比表格,PXP值见图3。 实际意义是什么:揭示了在感知线索不足时,空间先验知识在人类定位行为中的关键作用,并证明了在计算模型中模拟自适应加权对预测退化条件下听觉行为的重要性。对未来设计适应性更强的助听算法或虚拟声学系统有参考价值。 主要局限性是什么:模型验证局限于使用HRTF和特定的降质处理(声码器)模拟的条件。自适应方案的优势仅在低置信度个体案例中直观显现,未能在整体统计上得到确凿的、优于其他方案的结论。模型参数的个体化校准增加了应用复杂度。 🏗️ 模型架构 图1. 所提出的矢状面定位模型结构 (根据论文图1描述) 该模型是一个端到端的贝叶斯计算模型,流程如下: ...

2026-04-29

AMBISONIC-DML: A Benchmark Dataset for Dynamic Higher-Order Ambisonics Music with Motion-Aligned Stems

📄 AMBISONIC-DML: A Benchmark Dataset for Dynamic Higher-Order Ambisonics Music with Motion-Aligned Stems #数据集 #信号处理 #空间音频 #基准测试 ✅ 7.5/10 | 前25% | #数据集 | #信号处理 | #空间音频 #基准测试 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Seungryeol Paik(首尔大学 智能与信息学系) 通讯作者:Kyogu Lee(首尔大学 人工智能项目、首尔大学 人工智能研究所) 作者列表:Seungryeol Paik(首尔大学 智能与信息学系)、Taehyup Kim(Dream Scape Inc.)、Kyogu Lee(首尔大学 智能与信息学系、首尔大学 跨学科人工智能项目、首尔大学 人工智能研究所) 💡 毒舌点评 亮点:该工作精准切入了沉浸式音频研究中一个被忽视但关键的痛点,即缺乏动态、音乐化且高精度的基准数据集,其从艺术装置中提炼科研资源的做法颇具巧思。短板:尽管数据集质量评估详尽,但论文更像是一份详实的“产品说明书”,缺乏对基于此数据集能解决哪些具体研究挑战的深入探讨,且开源信息仅限于数据文件,代码级复现材料缺失。 📌 核心摘要 问题:现有公共空间音频数据集主要聚焦于环境声或静态音乐场景,缺乏同时包含动态声源运动轨迹、高阶Ambisonics编码和干声轨道的音乐数据,无法满足音乐驱动的沉浸式音频处理与生成研究需求。 方法核心:论文发布了AMBISONIC-DML数据集,包含120个音乐片段。其核心是通过确定性渲染管线(使用SPAT Revolution软件),将专业录制的干声(包含合成器、打击乐、人声等)与作曲家通过OSC实时设计的三维运动轨迹同步,生成5阶Ambisonics(HOA5,36通道)音频及对应的XYZ轨迹数据。 创新性:这是首个公开的、提供动态音乐运动轨迹与干声同步的HOA5数据集。与TAU-NIGENS、STARSS23等环境声数据集及EigenScape等静态音乐数据集相比,它提供了独特的动态、结构化音乐内容。 主要实验结果:数据集质量评估包括:客观分析显示HOA5编码正确(36通道DOF),运动轨迹对齐精度达±0.10mm。主观听力测试(25名听众)表明,相比立体声和低阶Ambisonics(HOA1/HOA3),HOA5格式在定位(MOS 4.5±0.3) 和 沉浸感(MOS 4.7±0.2) 上显著更优(p<0.01),而立体声在 清晰度(MOS 4.3±0.3) 和 节奏(MOS 4.6±0.2) 上更好。 实际意义:为轨迹感知信号处理、运动驱动的音频分离与生成(如空间混合、轨迹条件音乐合成)等前沿研究提供了必需的基准数据集,推动了从艺术驱动到技术验证的闭环。 主要局限性:数据集源自特定沉浸式艺术装置,其音乐风格与运动模式的多样性未被量化评估;作为数据集论文,未提出并验证具体的下游AI任务基线模型。 🏗️ 模型架构 本文并非提出一个新的算法模型,而是介绍一个数据集及其构建流程。因此,其“架构”指数据集的生成与组织流程。 ...

2026-04-29

An Efficient Neural Network for Modeling Human Auditory Neurograms for Speech

📄 An Efficient Neural Network for Modeling Human Auditory Neurograms for Speech #听觉编码 #语音增强 #卷积神经网络 #流式处理 #信号处理 ✅ 7.0/10 | 前25% | #语音增强 | #卷积神经网络 | #听觉编码 #流式处理 学术质量 6.5/7 | 选题价值 7.5/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Eylon Zohar(Ben-Gurion University of the Negev,电气与计算机工程学院) 通讯作者:Boaz Rafaely(Ben-Gurion University of the Negev,电气与计算机工程学院) 作者列表:Eylon Zohar(Ben-Gurion University of the Negev,电气与计算机工程学院),Israel Nelken(The Hebrew University of Jerusalem,神经生物学系),Boaz Rafaely(Ben-Gurion University of the Negev,电气与计算机工程学院) 💡 毒舌点评 本文在工程实现上做到了“螺丝壳里做道场”,将复杂的Bruce听觉外周模型用紧凑的TCN网络高效复现,实时性优势显著;但研究过于聚焦于对已知生理模型的精确复刻,应用场景局限于理想条件下的前端编码,对于听觉系统更复杂的功能(如随机放电、双耳处理)及噪声环境下的鲁棒性探讨不足,显得有些“精致的实用主义”。 ...

2026-04-29

An Unsupervised Alignment Feature Fusion System for Spoken Language-Based Dementia Detection

📄 An Unsupervised Alignment Feature Fusion System for Spoken Language-Based Dementia Detection #语音生物标志物 #多模态模型 #预训练 #跨模态 #信号处理 ✅ 7.0/10 | 前25% | #语音生物标志物 | #多模态模型 | #预训练 #跨模态 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yilin Pan(大连海事大学人工智能学院) 通讯作者:Lihe Huang(同济大学外国语学院 / 同济大学老年、语言与关怀研究中心)(根据论文中提供的通讯邮箱yihtsy@outlook.com和基金致谢信息推断) 作者列表: Yilin Pan(大连海事大学人工智能学院) Ziteng Gong(香港城市大学计算学院) Sui Wang(大连海事大学人工智能学院) Zhuoran Tian(大连海事大学人工智能学院) Tsy Yih(同济大学外国语学院) Lihe Huang(同济大学外国语学院;同济大学老年、语言与关怀研究中心) 💡 毒舌点评 本文的亮点在于直击了多模态融合在阿尔茨海默病检测中的一个痛点——直接拼接可能无效,而通过引入无监督的模态对齐,确实提升了性能并在可视化中提供了符合临床直觉的解释。短板是方法的原创性有限(对齐思想借鉴自语音合成),且在有限的中文数据集(MCGD)上表现提升不明显,可能暗示其泛化能力或对数据量的依赖,这削弱了其声称的“普适性”。 📌 核心摘要 解决的问题:阿尔茨海默病(AD)早期检测中,基于语音的多模态(声学+语言)系统有时性能不如单模态系统,原因在于简单的特征融合忽略了两种模态间的对齐与相关性。 方法核心:提出一个无监督的模态对齐融合框架。首先分别用Whisper和BERT提取语音帧和文本词的嵌入特征,然后通过计算L2距离和Softmax函数学习一个软对齐矩阵(Asoft),捕获语音与文本在时间序列上的对应关系,最后通过矩阵乘法和自注意力机制进行融合,用于分类。 新意:不同于常见的直接拼接或交叉注意力融合,该方法在融合前显式地、无监督地建模了两种模态间的对齐概率,为融合提供了更结构化的信息。 主要实验结果:在三个数据集上评估:在英文ADReSS数据集上,系统取得91.30%的F1分数;在DementiaBank数据集上取得91.43%的F1分数;在中文MCGD数据集上取得80.65%的F1分数。消融实验证明对齐机制和注意力模块对性能均有贡献。对齐矩阵的可视化显示,AD患者的语音-文本对齐模式(更不流畅、有停顿)与健康对照组有显著差异。 数据集 对齐模块 注意力模块 准确率 (%) F1分数 (%) DementiaBank 无 无 83.54 84.54 DementiaBank 无 有 85.22 85.54 DementiaBank 有 无 未提供 未提供 DementiaBank 有 有 87.51 90.85 DemBank-E 有 有 90.53 91.43 ADReSS 无 无 76.04 76.28 ADReSS 无 有 89.58 88.89 ADReSS 有 无 未提供 未提供 ADReSS 有 有 91.67 91.30 MCGD 无 无 67.31 73.85 MCGD 无 有 69.23 77.78 MCGD 有 无 未提供 未提供 MCGD 有 有 76.92 80.65 实际意义:为基于语音的AD检测提供了一种更有效的多模态融合策略,对齐矩阵的可视化为理解AD对语音和语言的影响提供了新的解释性工具,具有潜在的临床辅助价值。 主要局限性:在中文数据集MCGD上的性能提升有限,可能受数据规模和语言差异影响;模型性能高度依赖预训练的BERT和Whisper模型;未深入探讨该方法对不同阶段AD(如MCI)的区分能力。 🏗️ 模型架构 图1:系统架构图] (注:图片URL来自论文提供的本地PDF图片列表) ...

2026-04-29

Aneural Forward Filtering for Speaker-Image Separation

📄 Aneural Forward Filtering for Speaker-Image Separation #语音分离 #信号处理 #语音增强 ✅ 7.5/10 | 前25% | #语音分离 | #信号处理 | #语音增强 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Jingqi Sun(南方科技大学计算机科学与工程系) 通讯作者:Zhong-Qiu Wang(南方科技大学计算机科学与工程系) 作者列表:Jingqi Sun(南方科技大学计算机科学与工程系)、Shulin He(未说明)、Ruizhe Pang(未说明)、Zhong-Qiu Wang(南方科技大学计算机科学与工程系) 💡 毒舌点评 这篇论文巧妙地将传统的信号处理思想(线性卷积模型)与深度神经网络结合,为解决“保留混响”的语音分离任务提供了新的思路,其“三明治”架构(DNN-线性滤波-DNN)在实验上取得了可观的性能提升。然而,论文的核心创新点(联合预测直达声、神经前向滤波)高度依赖于一个理想化的时不变线性滤波器假设,这在复杂的真实声学环境中可能难以严格成立,且论文未探讨其在该假设不成立时的鲁棒性。 📌 核心摘要 问题:论文针对单通道多说话人-图像分离(speaker-image separation)任务,旨在从混叠语音中分离出每个说话人,但需保留各自的混响信息,而非去除混响。这在增强现实、音频后期处理等应用中很有价值。 方法核心:提出CxNet系统,采用“三明治”架构。第一个DNN(DNNR&A,1)联合预测每个说话人的直达声信号和混响语音。基于直达声估计,一个神经前向滤波模块(FCP及其变体FCP-ESSU)估计一个线性滤波器,该滤波器与直达声卷积得到一个物理约束下的混响语音估计。第二个DNN(DNNR&A,2)以原始混合信号、第一个DNN和FCP的估计为输入,进一步精细化混响语音估计。 创新点:与端到端DNN直接预测混响语音的基线方法相比,CxNet显式建模了直达声信号与混响语音之间的物理卷积关系;提出联合预测框架,利用更干净的直达声信号作为监督引导;改进了FCP算法,提出按能量排序更新源的FCP-ESSU以提升多说话人场景下的滤波器估计精度。 主要实验结果:在SMS-WSJ数据集上,CxNet(使用FCP-ESSU)在2说话人分离任务上达到21.4 dB的SI-SDR,比未使用物理约束的双DNN基线(系统2b)高出3.4 dB,比单DNN基线高出4.2 dB。在低能量时频单元(对应晚期混响)的重建上,CxNet显示出显著优势。 系统 迭代次数 SI-SDR (dB) nbPESQ eSTOI 2说话人 DNNR (基线) - 17.2 3.97 0.930 DNNR,1+DNNR,2 (基线) 1 18.0 4.02 0.936 CxNet (FCP-ESSU) 2 21.4 4.15 0.962 3说话人 DNNR (基线) - 12.9 3.50 0.859 DNNR,1+DNNR,2 (基线) 1 13.2 3.50 0.858 CxNet (FCP-ESSU) 2 17.2 3.87 0.921 实际意义:为需要保留环境混响信息的音频处理任务(如AR/VR、音频编辑)提供了一种有效的分离技术框架。其显式建模物理约束的思想,为融合领域知识和数据驱动模型提供了范例。 主要局限性:核心假设(时不变线性滤波器)在实际复杂声场中可能不成立,论文未对此进行分析和验证;系统复杂度(三个模块)和推理时迭代需求可能影响实时应用;实验仅在模拟混响数据集上进行,缺乏真实房间环境的验证。 🏗️ 模型架构 CxNet是一个由两个DNN模块和一个前向滤波模块组成的“三明治”架构系统,整体流程如图1所示。 ...

2026-04-29