Hair Noise Analysis and Mitigation for Smart Glasses Audio Captures

📄 Hair Noise Analysis and Mitigation for Smart Glasses Audio Captures #语音增强 #信号处理 #麦克风阵列 #音频分类 #数据集 ✅ 7.5/10 | 前25% | #语音增强 | #信号处理 | #麦克风阵列 #音频分类 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Subrata Biswas(Worcester Polytechnic Institute, MA, USA 及 Meta Reality Labs, WA, USA) 通讯作者:未明确说明(根据邮箱排列,可能是Daniel Wong) 作者列表: Subrata Biswas(Worcester Polytechnic Institute 及 Meta Reality Labs) Daniel Wong(Meta Reality Labs) Bashima Islam(Worcester Polytechnic Institute) Sanjeel Parekh(Meta Reality Labs) Vladimir Tourbabin(Meta Reality Labs) 💡 毒舌点评 亮点:论文开创性地将“头发噪音”这个长期困扰智能眼镜用户却鲜少被学界系统研究的“房间里的大象”定义为明确的学术问题,其用户研究和数据集构建工作扎实且具有长远价值。短板:提出的NMF基准方法略显保守,虽然有效,但在深度学习大行其道的今天,缺乏与基于深度学习的降噪/分离方法(如论文引用但未深入对比的[6][7][8])的直接较量,使得“基准”的标杆高度受限。 ...

2026-04-29

HFSQVAE: Hierarchical Vector Quantization with Residuals for Frequency-Specific Embedding

📄 HFSQVAE: Hierarchical Vector Quantization with Residuals for Frequency-Specific Embedding #向量量化 #音频生成 #音频分类 #图像重建 #信号处理 ✅ 7.0/10 | 前25% | #音频生成 | #向量量化 | #音频分类 #图像重建 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Min Woo Kim(首尔大学电气与计算机工程系,INMC实验室) 通讯作者:未说明 作者列表:Min Woo Kim(首尔大学电气与计算机工程系,INMC实验室)、Seonji Park(首尔大学电气与计算机工程系,INMC实验室)、Nam Ik Cho(首尔大学电气与计算机工程系,INMC实验室) 💡 毒舌点评 亮点:将“频谱偏差”从模型缺陷转化为可利用的先验知识,用“分而治之”的思路设计分层码本,并用乘积量化高效编码高频残差,逻辑清晰且工程实现合理。 短板:作为一篇发表在ICASSP 2026的论文,未提供任何代码或模型权重,对于一个方法论文来说,这严重削弱了其可复现性和社区影响力;此外,对比的基线方法(VQVAE, SQVAE等)已非当前SOTA,说服力有待加强。 📌 核心摘要 这篇论文旨在解决卷积神经网络在向量量化变分自编码器中固有的“频谱偏差”问题,即模型倾向于优先编码低频信息而忽略高频细节。 核心方法是提出HFSQVAE,一个包含两个层次化码本的架构:第一个码本(C_L)利用网络的天然频谱偏差来编码低频成分;第二个码本(C_H)则通过乘积量化技术,专注于编码输入图像减去第一个码本重建结果后得到的高频残差信息。 与已有方法相比,其新意在于:1) 将频率分离作为显式设计目标;2) 在图像空间而非潜在空间处理残差;3) 引入乘积量化以高效扩展高频码本容量;4) 提出交替训练策略以稳定优化。 实验结果表明,HFSQVAE在ImageNet(图像)和UrbanSound8K(音频频谱)数据集上,以更少的码本参数量,取得了优于VQVAE、SQVAE、CVQVAE、RQVAE等基线的重建精度。例如,在ImageNet上PSNR达到29.703(基线最优为27.719),LPIPS降至0.139(基线最优为0.221)。 实际意义在于为图像和音频的离散表示学习提供了一种更高效、更保真的编码方案,可能有助于下游的生成或分析任务。 主要局限性包括:未在更复杂的生成任务(如图像生成)中验证;未与最新的基于扩散模型的生成方法进行比较;且未开源任何实现细节。 🏗️ 模型架构 HFSQVAE的整体架构是一个两阶段的层次化系统,旨在分别处理输入数据(X)的低频和高频成分。 架构流程与组件详解: ...

2026-04-29

Huí Sù: Co-constructing a Dual Feedback Apparatus

📄 Huí Sù: Co-constructing a Dual Feedback Apparatus #音乐生成 #生成模型 #实时处理 #信号处理 📝 5.5/10 | 后50% | #音乐生成 | #生成模型 | #实时处理 #信号处理 | arxiv 学术质量 5.0/7 | 选题价值 2.0/2 | 复现加成 -1.0 | 置信度 高 👥 作者与机构 第一作者:Yichen Wang(The Australian National University) 通讯作者:未说明(论文未明确指定通讯作者,但提供了两位作者的邮箱) 作者列表:Yichen Wang(The Australian National University, Canberra, ACT, Australia)、Charles Patrick Martin(The Australian National University, Canberra, ACT, Australia) 💡 毒舌点评 论文提出了一个有趣且概念完整的“双反馈”智能乐器二重奏系统,巧妙地将AI在音频潜空间和MIDI控制流中的反馈作用进行对比与融合,为表演艺术提供了新的交互范式。然而,其致命短板在于完全缺乏任何形式的定量评估、对比实验或详细的可复现技术描述,使得整个工作停留在艺术项目展示层面,学术严谨性和可复现性严重不足。 📌 核心摘要 这篇论文是NIME‘26的一场艺术表演提案,旨在探索两个智能乐器“溯”(Sù)和“Agentier”通过反馈回路与人类表演者进行二重奏。要解决的问题是如何在音乐表演中实现人与AI更深度的共同创作,而非单向控制。其方法核心是构建两个对比系统:“溯”在音频潜空间(基于RAVE模型)引入潜变量反馈,使音色演变具有时序连续性;“Agentier”在MIDI控制空间(基于MDRNN模型)引入控制信号反馈,使系统能生成和延续演奏手势。与已有方法相比,新在将“反馈”这一概念系统地拆解并实现在音乐生成的两个不同层面(音频与控制),并将其置于协同表演的语境中。主要实验结果未提供定量数据,仅通过一段12分钟的即兴表演视频(链接:https://doi.org/10.5281/zenodo.19673150)进行概念验证,展示了系统在实际演出中的可行性。实际意义在于为智能乐器设计和人机交互艺术实践提供了新的思路和系统原型。主要局限性在于缺乏可量化的性能评估、对比研究以及详细的技术复现信息。 🏗️ 模型架构 论文描述了两个独立的智能乐器系统架构,二者共同构成一个双反馈演出装置。 系统1:溯 (Sù) - 音频潜空间反馈乐器 ...

2026-04-29

IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter-Band Prediction

📄 IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter-Band Prediction #语音编码 #语音合成 #信号处理 #轻量模型 #流式处理 ✅ 7.0/10 | 前25% | #语音编码 | #信号处理 | #语音合成 #轻量模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Peng Zhou(北京理工大学) 通讯作者:Shenghui Zhao*(北京理工大学) 作者列表:Peng Zhou(北京理工大学),Xiaojiao Chen(北京理工大学),Pincheng Lu(北京理工大学),Jing Wang(北京理工大学),Shenghui Zhao*(北京理工大学) 💡 毒舌点评 亮点:论文精准抓住了“低比特率下低频更重要”这一经典信号处理直觉,并将其与神经网络结合,通过一个轻量的带间预测模块(IBPM)在解码端“猜”出高频,以极小的计算代价(0.35 GMACs)实现了有竞争力的性能,这种“巧劲”值得在资源受限场景下借鉴。 短板:IBPM目前的结构(三层逐点卷积)过于简单,其预测能力存在明显天花板(当P=0.5时质量下降),本质上仍是低频信息的线性外推,论文未探讨更强大的生成式预测模型(如扩散模型)的可能性;此外,模型在1 kbps下的绝对质量(PESQ 2.2)距离“可用”仍有距离,创新性更多是工程上的巧妙设计而非原理性突破。 📌 核心摘要 这篇论文针对当前神经语音编解码器计算复杂度过高、难以在边缘设备部署的问题,提出了一种名为IBPCodec的低比特率轻量级语音编解码器。其核心方法是优先对输入语音的低频部分(占比P=75%)进行编码和量化传输,在解码端利用一个轻量的带间预测模块(IBPM)从解码出的低频信息中预测高频成分,从而恢复完整语音。与先前直接丢弃高频或整体编码的方法相比,该创新点在于将频带优先传输与神经预测相结合。实验结果显示,在16 kHz采样率、1-3 kbps比特率下,IBPCodec的计算复杂度仅为0.35 GMACs(远低于DAC的55.66G和SpeechTokenizer的17.09G),其PESQ、SI-SDR等客观指标及MUSHRA主观评分均优于或持平FreqCodec、SpeechTokenizer等基线。该工作的实际意义在于为低功耗设备上的实时语音通信提供了一种高效的编解码方案。其主要局限性在于IBPM的预测能力有限,在更低频带占比(P=0.5)时性能下降,且模型在极低比特率下的绝对语音质量仍有提升空间。 🏗️ 模型架构 IBPCodec采用“编码-量化-解码-预测”的端到端架构,工作在时频域。整体流程如图1所示: 输入预处理:输入语音波形x经STFT变换为频谱f。论文取其幅度、单位范数相位的实部和虚部,并截取低频部分(比例P)作为输入flow,维度为3×F‘×N。 编码器:由ConvEncoder(下采样卷积堆栈)和TAM(时间聚合模块)组成。ConvEncoder在每帧内进行特征提取,但缺乏帧间建模。因此,在量化器前后各加入一个TAM(基于因果FocalBlock),用于聚合不同时间尺度的依赖关系,增强时序建模能力。所有卷积均为因果卷积,以支持流式推理。 量化器:采用分组残差向量量化(GRVQ),组数G=2,通过调整层数控制比特率。将连续潜变量z量化为离散表示zq。 解码器:结构与编码器镜像对称,将上采样卷积替换下采样卷积。解码器从量化特征中重建低频频谱f‘_low。 带间预测模块:这是核心创新模块。它接收解码出的低频f‘_low,通过三层逐点1D卷积(带PReLU激活)将信息从低频维度投影至高频维度,预测出高频频谱f‘_high。预测公式为:f‘_high = IBPM(f‘_low)。 输出合成:将低频f‘_low和预测的高频f‘_high拼接成完整频谱f‘,再经iSTFT变换成最终语音波形x‘。 设计动机:该架构的核心动机是,在低比特率下,优先保证低频信息的准确传输,因为低频对语音的可懂度和感知质量至关重要。高频信息则通过轻量预测模块从低频中恢复,从而避免了对高频进行昂贵的编码,大幅降低了整体计算复杂度。 ...

2026-04-29

ICASSP 2026 - 信号处理 论文列表

ICASSP 2026 - 信号处理 共 2 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Distributed Multichannel Active Noise Control with Asynchron 8.0分 前25% 🥈 A Noniterative Phase Retrieval Considering the Zeros of STFT 7.5分 前25% 📋 论文详情 🥇 Distributed Multichannel Active Noise Control with Asynchronous Communication 🔥 8.0/10 | 前25% | #信号处理 | #分布式算法 | #多通道 #实时处理 👥 作者与机构 第一作者:Junwei Ji(南洋理工大学电气与电子工程学院) 通讯作者:未说明(但根���邮箱和贡献,可能是Woon-Seng Gan) 作者列表: Junwei Ji(南洋理工大学电气与电子工程学院) Dongyuan Shi(西北工业大学海洋科学与技术学院) Boxiang Wang(南洋理工大学电气与电子工程学院) Ziyi Yang(南洋理工大学电气与电子工程学院) Haowen Li(南洋理工大学电气与电子工程学院) Woon-Seng Gan(南洋理工大学电气与电子工程学院) 💡 毒舌点评 ...

2026-04-29

Identifying Birdsong Syllables without Labelled Data

📄 Identifying Birdsong Syllables without Labelled Data #生物声学 #无监督学习 #聚类 #信号处理 ✅ 7.0/10 | 前50% | #生物声学 | #无监督学习 | #聚类 #信号处理 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Mélisande Teng (Mila - Quebec AI Institute, Université de Montréal) (共同第一作者) 通讯作者:未说明 作者列表:Mélisande Teng (Mila - Quebec AI Institute, Université de Montréal), Julien Boussard (Mila - Quebec AI Institute, McGill University) (共同第一作者), David Rolnick (Mila - Quebec AI Institute, McGill University), Hugo Larochelle (Mila - Quebec AI Institute, Université de Montréal) 💡 毒舌点评 亮点:该方法是首个完全无监督的鸟鸣音节分解算法,巧妙地将电生理信号处理中的spike sorting思想迁移到生物声学,避免了对大量标注数据的依赖,实用性强。短板:整个流水线(特别是匹配追求部分)对预设的音节检测阈值和模板质量非常敏感,论文在复杂噪声环境下的表现讨论不足,更像一个优雅的“工程流水线”而非一个可学习的、具有强泛化能力的模型。 ...

2026-04-29

Improving Interpretability in Generative Multitimbral DDSP Frameworks via Semantically-Disentangled Musical Attributes

📄 Improving Interpretability in Generative Multitimbral DDSP Frameworks via Semantically-Disentangled Musical Attributes #音频生成 #音乐生成 #信号处理 #解耦表示 ✅ 7.5/10 | 前25% | #音频生成 | #信号处理 | #音乐生成 #解耦表示 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Francesco Ardan Dal Rì(特伦托大学信息工程与计算机科学系) 通讯作者:未说明 作者列表:Francesco Ardan Dal Rì(特伦托大学信息工程与计算机科学系)、Nicola Conci(特伦托大学信息工程与计算机科学系) 💡 毒舌点评 这篇论文巧妙地将语义解耦的VAE与改进的DDSP结合,解决了多乐器生成中“控制黑箱”的痛点,实验也证明了其灵活生成能力。不过,它只在TinySOL这样的小型数据集上验证,且避开了与更强大的扩散式音频生成模型的正面比较,说服力打了折扣。 📌 核心摘要 要解决什么问题:传统DDSP(可微分数字信号处理)架构依赖帧级潜在编码,在多乐器纯生成设置中缺乏全局语义可解释性,且音色与力度等音乐属性相互纠缠,难以实现独立、可控的生成。 方法核心是什么:提出一个由Triple-VAE编码器和改进DDSP解码器组成的框架。Triple-VAE从频谱图中提取语义解耦的全局音色(t)和力度(d)嵌入(各8维)。DDSP解码器以这些全局嵌入、归一化包络曲线和音高轮廓为输入,使用双层GRU来学习复杂的时序依赖,最终通过谐波+噪声(HpN)模块合成波形。 与已有方法相比新在哪里:首次在多乐器DDSP框架中引入通过监督学习强制解耦的全局音色与力度表示,替代了传统的帧级z编码。同时,用归一化包络曲线替代原始响度曲线作为控制信号,并使用双层GRU而非单层RNN来更好地从全局表示中建模时序细节。 主要实验结果如何:在TinySOL数据集上,框架在多种乐器数量配置下均表现出色。 Triple-VAE的属性分类准确率(C Acc.)接近1.0,而“移除器”准确率(R Acc.)较低,证明解耦有效。 DDSP重建的感知质量(MR-STFT)稳定在1.133-1.209,与基线相当。 生成质量(FAD)优于基线,其中PANN-FAD(时序相关)随乐器数增加显著下降至0.019×10⁻⁴,表明包络建模能力增强。 相较于基线(无解耦VAE+传统DDSP),本框架在FAD指标上提升显著(如VGG-FAD: 2.256 vs 4.556 @ t=2)。 关键数据见下表: 配置 Triple-VAE MSE (×10⁻³)↓ C Acc.↑ (t/p/d) R Acc.↓ (t/p/d) DDSP MR-STFT↓ DDSP MSE (×10⁻³)↓ DDSP FAD VGG↓ DDSP FAD PANN (×10⁻⁴)↓ t=2 5.664 ± 3.970 1.00 / 1.00 / 1.00 0.74 / 0.21 / 0.44 1.208 ± 0.056 4.168 ± 0.974 2.256 0.500 t=4 5.488 ± 3.698 1.00 / 1.00 / 0.99 0.50 / 0.19 / 0.52 1.209 ± 0.077 6.263 ± 1.873 2.448 0.132 t=8 5.556 ± 3.797 1.00 / 1.00 / 0.99 0.37 / 0.13 / 0.54 1.153 ± 0.075 10.310 ± 4.550 2.618 0.019 t=14 5.733 ± 4.808 0.99 / 1.00 / 0.99 0.29 / 0.14 / 0.54 1.133 ± 0.078 13.622 ± 6.220 2.743 0.019 基线 (t=2) 5.574 ± 4.879 1.00 / 0.99 / 0.99 // // // 1.292 ± 0.072 4.728 ± 1.662 4.556 1.688 实际意义是什么:该框架使得从仅16维的紧凑、语义明确的潜在空间中生成高质量、可控的多乐器音频成为可能,为实时声音设计、音乐制作和创意音频合成提供了新的工具。 主要局限性:实验仅在小型数据集(TinySOL)上进行,且乐器种类有限。框架性能随乐器数量增加在波形级(MSE)和频谱级(VGG-FAD)上有所下降。未来需验证其在更大规模、更多样数据集及复杂非谐波声音上的泛化能力。 🏗️ 模型架构 本文提出一个端到端的“Triple-VAE编码器 + DDSP解码器”框架,用于多乐器声学声音的可控生成。整体流程如下:输入音频首先被转换为频谱图和归一化的包络(RMS)、音高(YIN)轮廓。频谱图被送入Triple-VAE编码器,输出解耦的全局潜在表示;包络和音高轮廓与全局潜在表示拼接后,作为DDSP解码器的输入,最终合成音频波形。 ...

2026-04-29

Investigating The Effect Of Sentence-Level Syntactic Structure On Information Loss In The Human Auditory System

📄 Investigating The Effect Of Sentence-Level Syntactic Structure On Information Loss In The Human Auditory System #语音识别 #信号处理 #语言学 #模型评估 ✅ 7.0/10 | 前50% | #语音识别 | #信号处理 | #语言学 #模型评估 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Sif Bjerre Lindby(奥尔堡大学电子系统系) 通讯作者:未说明 作者列表:Sif Bjerre Lindby(奥尔堡大学电子系统系)、Jesper Jensen(奥尔堡大学电子系统系、奥迪康A/S)、Zheng-Hua Tan(奥尔堡大学电子系统系)、Jan Østergaard(奥尔堡大学电子系统系) 💡 毒舌点评 这篇论文巧妙地将信息论中的“数据处理不等式”应用于量化语法缺失对人类听觉信息损失的影响,方法论新颖且避开了前人需要复杂边界估计的痛点,这是一个扎实的理论贡献。但其局限在于,实验仅基于丹麦语、特定的封闭词汇矩阵句测试(MST)范式,且未能完全分离“语法缺失”与“协同发音错误”的混淆效应,因此结论的普适性有待更多语言和更复杂语法结构的验证。 📌 核心摘要 要解决的问题:探究句子级语法结构(Syntax)在人类听觉系统处理噪声语音时,对信息传递与解码效率的具体影响,即语法缺失会导致多大比例的传输信息损失。 方法核心:将听觉处理建模为“说话者-噪声信道-听者”的马尔可夫链(X→Y→Z)。通过比较有语法(sensical)和无语法(nonsensical)条件下,从传输词X到解码词Z的互信息I(X; Z)的差异,定义了由语法缺失引起的新增信息损失ΔI(X; Z)。该指标避免了直接计算有噪声混合变量的微分熵,得到一个闭式、无假设的表达式。 与已有方法相比新在哪里:相比先前工作[7]中需要在高斯噪声假设下对信息损失进行复杂上下界估计的方法,本文通过对比两种条件,成功消去了难以计算的项,提出了一个直接、可计算的、针对语法效应的信息损失度量新指标。 主要实验结果:基于丹麦语听觉测试数据,使用线性混合效应模型分析发现: 语法显著影响单词识别准确率(WRA)和互信息I(X; Z)。 关键结论:语法缺失导致的平均信息损失在中等信噪比(-3 dB, -6 dB)时最大,可达约1.13 ± 0.22 bits/word(见表2(ii))。由于每个词的信息熵上限为log₂(10) ≈ 3.32 bits,这相当于丢失了约三分之一(~34%)的总传输信息。在极高(0 dB)或极低(-9 dB)信噪比下,此损失较小。 信噪比 语法缺失导致的信息损失 ΔI(X; Z) [bits/word] (被试级数据) 语法缺失导致的信息损失 ΔI(X; Z) [bits/word] (汇总平均数据) 0 dB 0.52 ± 0.09 0.84 ± 0.13 -3 dB 0.61 ± 0.14 1.07 ± 0.31 -6 dB 0.64 ± 0.10 1.13 ± 0.22 -9 dB 0.36 ± 0.10 0.59 ± 0.21 (表格汇总自论文Table 2(i)和(ii)的“overall”行) 实际意义:量化了语法在噪声环境下对人类语音理解的关键支撑作用(高达1/3的信息增益),为理解人类听觉系统的次优性提供了信息论视角,也可能为设计更仿生、利用语法先验的语音识别系统提供理论依据。 主要局限性:实验仅使用丹麦语和特定矩阵句结构(固定词序、封闭词库),结论推广性有限;无语法刺激同时引入了“错误协同发音”这一混淆变量,虽论文评估其影响可能次于语法缺失,但未能完全排除。 🏗️ 模型架构 本文并非提出一个可学习的神经网络模型,而是构建了一个用于分析的信息论框架。其核心架构是一��马尔可夫链通信模型(如论文Fig. 1所示): Fig. 1. Block diagram of the speech communication model. ...

2026-04-29

Is Phase Really Needed for Weakly-Supervised Dereverberation?

📄 Is Phase Really Needed for Weakly-Supervised Dereverberation? #语音增强 #弱监督学习 #信号处理 #时频分析 #自监督学习 ✅ 6.0/10 | 前50% | #语音增强 | #自监督学习 | #弱监督学习 #信号处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Marius Rodrigues(LTCI, Télécom Paris, Institut Polytechnique de Paris) 通讯作者:未说明 作者列表:Marius Rodrigues(LTCI, Télécom Paris, Institut Polytechnique de Paris)、Louis Bahrman(LTCI, Télécom Paris, Institut Polytechnique de Paris)、Roland Badeau(LTCI, Télécom Paris, Institut Polytechnique de Paris)、Gaël Richard(LTCI, Télécom Paris, Institut Polytechnique de Paris) 💡 毒舌点评 论文核心的物理洞见(混响相位近似均匀噪声)非常漂亮且具有启发性,为弱监督语音处理提供了坚实的理论依据。然而,实验部分却显得有些“雷声大雨点小”,仅在一个特定的弱监督框架内用简单的损失修改进行验证,缺乏与当前最强基线(例如全监督的TF-GridNet或更复杂的弱监督方法)的横向对比,使得结论的普适性和影响力打了折扣。 ...

2026-04-29

Joint Deep Secondary Path Estimation and Adaptive Control for Active Noise Cancellation

📄 Joint Deep Secondary Path Estimation and Adaptive Control for Active Noise Cancellation #语音增强 #端到端 #实时处理 #深度学习 #信号处理 ✅ 7.5/10 | 前25% | #语音增强 | #端到端 | #实时处理 #深度学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Fareedha (National Institute of Technology, Warangal, Telangana, India) 通讯作者:未说明 作者列表:Fareedha (National Institute of Technology, Warangal, Telangana, India)、Vasundhara (National Institute of Technology, Warangal, Telangana, India)、Asutosh Kar (Birmingham City University, Birmingham, UK)、Mads Græsbøll Christensen (Aalborg University, Denmark) 💡 毒舌点评 论文将深度学习中的估计与控制模块“缝合”得相当流畅,消融实验做得很扎实,有力地证明了注意力机制和双向LSTM在其中的价值。然而,核心创新更多是工程层面的集成优化,而非方法论的革新;且实验场景(主要是飞机噪声)稍显单一,要宣称在“动态环境”下鲁棒,或许还应挑战更多极端的非平稳声学条件。 ...

2026-04-29