Constraint Optimized Multichannel Mixer-Limiter Design

📄 Constraint Optimized Multichannel Mixer-Limiter Design #多通道 #信号处理 #音频生成 #实时处理 ✅ 7.0/10 | 前25% | #多通道 | #信号处理 | #音频生成 #实时处理 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Yuancheng Luo (Amazon.com) 通讯作者:未说明 作者列表:Yuancheng Luo (Amazon.com), Dmitriy Yamkovoy (Amazon.com), Guillermo Garcia (Amazon.com) 💡 毒舌点评 亮点:将混音和限幅问题统一建模为线性约束二次规划(QP)是一个优雅且理论扎实的框架,特别是提出的“遮挡剔除”约束缩减算法,能有效降低QP求解复杂度,为实时处理提供了理论可能。 短板:实验部分仅使用人工合成的调幅信号进行验证,缺乏真实音乐或语音内容的主观听感评估和客观指标对比(如LUFS、动态范围),结论的工程实践说服力不足。 📌 核心摘要 问题:在消费级扬声器阵列中,传统的多通道混音器(负责分配动态余量)与限幅器(保护扬声器)是分开设计的,这会导致音频失真、通道平衡破坏和指向性间歇性改变。 方法核心:提出一种耦合设计,将混音与限幅问题表述为一个高效的线性约束二次规划(QP)问题。其目标是在满足每样本混合信号不超阈值的线性约束下,最小化一个基于通道增益衰减的失真目标函数。 新意:与传统解耦方法相比,新方法实现了跨通道、跨时间的联合优化。论文创新了: 设计了一种支持攻击、保持、释放动态的不对称恒定重叠添加(COLA)窗函数,用于构建平滑的增益包络。 推导了可直接用于QP求解的失真目标二次近似函数,并分析了其凸性条件。 提出了“预混缩减变量”和“遮挡剔除缩减约束”两种高效降低QP问题规模的方法,以满足实时性要求。 实验结果:论文使用合成的多频带、多内容调幅信号进行评估。结果显示: 相比单通道限幅器、多频带/多内容限幅器及拼接预混器,完整的耦合混音-限幅器的失真目标值最低(均值0.16±0.18)。 约束缩减算法效果显著,如将6通道输入的约束数量从约1636个(预处理后)平均降至381.5个(非遮挡集),接近凸包支持面的数量(202.8)。 实际意义:为低功耗、资源受限的消费音频设备(如智能音箱、Soundbar)提供了一种在保证响度的同时,能更自适应、更保真地进行多声道混音与保护的算法框架。 主要局限:实验仅限于合成信号,未在真实音频内容上验证其普适性与听感;论文未提供代码或详细实现指南,复现门槛高。 🏗️ 模型架构 本文并非传统的神经网络模型,而是一个基于优化理论的信号处理算法框架。其核心是一个序列化的二次规划(QP)求解器,结合窗函数包络构建模块。 整体输入输出流程: 输入:一个音频流,包含 N 个输入通道,每个通道有 F 个样本(一个帧)。 核心处理:对于每一帧(或带前瞻的重叠帧),求解一个QP问题(公式(6)),得到当前帧的最优增益向量 x*。 包络构建:使用设计的动态约束COLA窗函数,对连续帧的解 x* 进行加权平均(公式(7)),生成每通道平滑的增益包络 vn(t)。 输出:将输入信号 Y(t,n) 与对应的增益包络 vn(t) 相乘并求和,得到最终的单声道混合输出 y(t),其幅值满足预设阈值 τ。 主要组件: ...

2026-04-29

Deep Learning-Based Joint Optimization of Adaptive Feedback Cancellation and Residual Feedback Suppression for Hearing Aids

📄 Deep Learning-Based Joint Optimization of Adaptive Feedback Cancellation and Residual Feedback Suppression for Hearing Aids #语音增强 #信号处理 #深度学习 #实时处理 🔥 8.0/10 | 前25% | #语音增强 | #深度学习 | #信号处理 #实时处理 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Xiaofan Zhan (1,2) 通讯作者:Chengshi Zheng (1,2) 作者列表: Xiaofan Zhan (中国科学院声学研究所噪声与音频研究实验室;中国科学院大学) Brian C. J. Moore (剑桥大学心理学系剑桥听力组) Xiaodong Li (中国科学院声学研究所噪声与音频研究实验室;中国科学院大学) Chengshi Zheng (中国科学院声学研究所噪声与音频研究实验室;中国科学院大学) 💡 毒舌点评 亮点是它成功地将信号处理领域的经典思路(先线性对消,再非线性抑制)与深度学习巧妙结合,设计了两阶段框架和针对性的三步训练法,在实验上也确实做到了“1+1>2”的效果。短板在于,论文对闭环训练中两个网络如何具体协调、误差如何反向传播等“脏活累活”的细节描述略显含糊,只给出了宏观步骤,让想复现的人可能卡在调参的细节里;另外,只用了客观指标,缺乏真实的听感测试或临床数据支持,说服力打了点折扣。 📌 核心摘要 解决的问题:助听器中固有的声反馈问题(麦克风重拾放大的声音导致啸叫和失真),严重限制了可用增益,尤其在现代小型、开放式设计中更为突出。现有基于深度学习的方法(DeepAFS和DeepAFC)各有局限:前者计算复杂且高增益效果有限,后者在反馈路径快速变化时性能下降。 方法核心:提出JointDFC,一个两阶段深度学习框架。第一阶段使用LFCNet(集成预测误差方法的深度自适应反馈取消网络)进行线性反馈对消;第二阶段使用RFSNet(带全局因果时频注意力机制的全子带递归网络)抑制残余反馈和噪声。设计了“单独预训练 -> 数据生成 -> 端到端微调”的三步训练策略以解决闭环系统训练难题。 与已有方法相比新在哪里:这是首次将深度学习框架用于整合反馈取消与残余反馈抑制的联合优化,融合了DeepAFC(侧重建模反馈路径)和DeepAFS(侧重直接信号分离)的优势。网络设计上引入了全局时频注意力以精准定位残余反馈,训练策略上专门设计了适配闭环系统的三步法。 主要实验结果:在模拟用户内(Set A)和用户间(Set B)反馈路径变化的测试集上,JointDFC在多种高增益(5-11dB)条件下全面优于两个基线(DeepPEM-AFC, DeepAFS)。例如,在Set A的11dB增益条件下,JointDFC的WB-PESQ为4.12,eSTOI为98.01%,SI-SDR为16.14 dB,显著高于DeepPEM-AFC(PESQ 3.11, eSTOI 90.87%, SI-SDR -1.85 dB)和DeepAFS(PESQ 3.53, eSTOI 93.86%, SI-SDR 11.39 dB)。消融实验表明,移除全局注意力或联合训练均会导致性能下降。 方法 参数量(M) 计算量(G/s) WB-PESQ (5/7/9/11dB) eSTOI(%) (5/7/9/11dB) SI-SDR(dB) (5/7/9/11dB) Set A DeepPEM-AFC 0.240 0.060 4.32/4.23/3.71/3.11 99.24/98.84/93.64/90.87 19.03/17.79/9.80/-1.85 DeepAFS 0.302 0.319 4.28/4.18/3.90/3.53 98.45/97.90/96.11/93.86 17.62/16.22/14.13/11.39 JointDFC (ours) 0.396 0.227 4.30/4.26/4.21/4.12 98.87/98.68/98.40/98.01 18.71/17.95/17.16/16.14 w/o Global cTFA 0.391 0.224 4.23/4.19/4.13/4.02 98.47/98.27/97.90/97.32 17.74/17.07/16.27/14.98 w/o joint training 0.396 0.227 4.17/4.13/4.09/4.09 97.80/97.72/97.58/97.51 13.98/13.28/13.03/13.10 Set B DeepPEM-AFC 0.240 0.060 4.15/4.04/3.85/3.54 98.62/98.36/97.50/96.00 16.01/14.78/11.53/6.71 DeepAFS 0.302 0.319 4.23/4.13/3.93/3.63 98.36/97.81/96.42/93.97 17.33/15.88/13.83/10.86 JointDFC (ours) 0.396 0.227 4.21/4.16/4.11/4.07 98.59/98.39/98.11/97.92 16.91/15.99/15.25/14.66 w/o Global cTFA 0.391 0.224 4.13/4.07/4.02/3.95 98.13/97.90/97.59/97.12 16.19/15.22/14.47/13.18 w/o joint training 0.396 0.227 4.12/4.07/4.01/3.95 97.68/97.50/97.21/96.92 13.96/13.16/12.28/11.67 实际意义:该方法有望显著提升助听器在复杂动态环境下的稳定工作增益,改善中重度听力损失用户的听力补偿效果,同时保持了适合实时助听器芯片部署的计算复杂度(0.227 G MACs/s)。 主要局限性:研究主要基于客观指标(PESQ, eSTOI, SI-SDR)评估,未提供主观听感测试或真实用户佩戴实验数据;模型在反馈路径剧变时的瞬态性能有待进一步探究;实际硬件部署的功耗、内存占用等未讨论。 🏗️ 模型架构 本文提出的JointDFC系统是一个两阶段的深度学习框架,整体流程如图1(b)所示。 ...

2026-04-29

Differentiable Grouped Feedback Delay Networks for Learning Direction and Position-Dependent Late Reverberation

📄 Differentiable Grouped Feedback Delay Networks for Learning Direction and Position-Dependent Late Reverberation #空间音频 #可微分渲染 #深度学习 #信号处理 #实时处理 ✅ 7.5/10 | 前25% | #空间音频 | #可微分渲染 | #深度学习 #信号处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Orchisama Das(Kings College London, Dept. of Engineering, United Kingdom) 通讯作者:未说明(论文未明确指定) 作者列表: Orchisama Das(Kings College London, Dept. of Engineering, United Kingdom) Sebastian J. Schlecht(Friedrich-Alexander Universit¨at Erlangen-N¨urnberg, Multimedia Comms. and Signal Process., Germany) Gloria Dal Santo(Aalto University, Acoustics Lab, Dept. of Info. and Comms. Engineering., Finland) Zoran Cvetkovi´c(Kings College London, Dept. of Engineering, United Kingdom) 💡 毒舌点评 亮点在于巧妙地将传统可变声场渲染模型(FDN)与神经网络结合,在保持结构先验的同时实现了端到端学习和高效的多位置渲染,计算复杂度优势明显。短板则是其精度略逊于最强基线(NAF),且在房间过渡区域误差有可见增加,表明其建模复杂空间动态的能力仍有提升空间。 ...

2026-04-29

Distributed Multichannel Active Noise Control with Asynchronous Communication

📄 Distributed Multichannel Active Noise Control with Asynchronous Communication #信号处理 #分布式算法 #多通道 #实时处理 🔥 8.0/10 | 前25% | #信号处理 | #分布式算法 | #多通道 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junwei Ji(南洋理工大学电气与电子工程学院) 通讯作者:未说明(但根���邮箱和贡献,可能是Woon-Seng Gan) 作者列表: Junwei Ji(南洋理工大学电气与电子工程学院) Dongyuan Shi(西北工业大学海洋科学与技术学院) Boxiang Wang(南洋理工大学电气与电子工程学院) Ziyi Yang(南洋理工大学电气与电子工程学院) Haowen Li(南洋理工大学电气与电子工程学院) Woon-Seng Gan(南洋理工大学电气与电子工程学院) 💡 毒舌点评 论文巧妙地将权重约束与异步触发机制结合,为分布式降噪系统提供了一个通信友好的实用方案,仿真实验也扎实地证明了其在降低通信开销方面的显著效果。然而,其核心创新是工程组合而非理论突破,且实验仅限于仿真环境,未在真实异步、有延迟的网络条件下进行验证,说服力打了折扣。 📌 核心摘要 问题:传统的分布式多通道主动噪声控制(DMCANC)方法通常假设节点间同步且频繁地通信,导致通信开销过高,难以适应异构或资源受限的网络环境。 方法核心:提出异步通信DMCANC系统。每个节点独立运行权重约束的FxLMS(WCFxLMS)算法,在通信间隔期间保持稳定。节点根据本地噪声抑制性能的下降情况自主决定是否发起通信请求。响应时,其他节点仅传输其控制滤波器与中心点的权重差(weight difference),并通过混合权重差(MWD)操作融合信息,更新本地控制滤波器和中心点。 新意:与现有同步、每采样点都通信的分布式方法不同,该方法实现了按需、异步通信,大幅减少了通信次数。WCFxLMS确保了非通信期间的稳定性,MWD规则实现了异步信息的有效融合。 实验结果:在6节点系统中进行仿真。图3(a)显示,在抑制100-1000Hz宽带噪声时,ACDMCANC的降噪性能(ANSE)略低于集中式MEFxLMS和同步MGDFxLMS,但显著优于无通信的基准。图3(b)表明节点通信时间点不同,验证了异步性。图4(a)(b)在真实压缩机噪声下,ACDMCANC同样表现出有效的降噪性能,但收敛稍慢。关键数据:在图3(a)中,15秒时ACDMCANC的ANSE约比MEFxLMS差5-8 dB,但实现了“通信实例”的大幅减少(图3(b)显示节点1和2在15秒内仅分别触发通信约4次和2次)。 实际意义:该方法降低了对网络通信带宽和实时性的要求,提升了分布式降噪系统在异构网络中的可部署性、扩展性和鲁棒性。 局限性:由于异步通信和权重约束,其收敛速度和最终降噪性能略逊于完全同步通信的方法。仿真实验未考虑实际网络中的传输延迟和丢包问题。 🏗️ 模型架构 论文提出的ACDMCANC系统是一个分布式自适应信号处理系统,其核心架构由多个功能相同的ANC节点组成。每个节点包含一个参考传感器(共享)、一个次级声源、一个误差传声器和一个负责通信与处理的ANC控制器。图2展示了第k个节点的详细框图。 完整输入输出流程: ...

2026-04-29

Enhancing Automatic Drum Transcription with Online Dynamic Few-Shot Learning

📄 Enhancing Automatic Drum Transcription with Online Dynamic Few-Shot Learning #音乐信息检索 #少样本学习 #领域适应 #实时处理 ✅ 7.0/10 | 前25% | #音乐信息检索 | #少样本学习 | #领域适应 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Philipp Weyers (Fraunhofer Institute for Integrated Circuits (IIS), Germany) 通讯作者:未说明(论文中作者列表后未明确标注通讯作者) 作者列表:Philipp Weyers (Fraunhofer IIS), Christian Uhle (Fraunhofer IIS & International Audio Laboratories Erlangen), Meinard Müller (Fraunhofer IIS & International Audio Laboratories Erlangen), Matthias Lang (Fraunhofer IIS)。 💡 毒舌点评 亮点是首次在ADT中提出一种无需人工标注、支持流式处理的在线自适应方法,将少样本学习从“学习新类”巧妙地转化为“适配已知类的音色”,思路清晰且工程价值明确。短板在于,消融分析揭示其宣称的“在线自适应”带来的实际性能提升在部分数据集上有限,大部分性能增益其实来自离线训练阶段的优化(如第二阶段训练),这使得在线部分的贡献显得有些“锦上添花”而非核心突破。 ...

2026-04-29

Fast-ULCNet: A Fast and Ultra Low Complexity Network for Single-Channel Speech Enhancement

📄 Fast-ULCNet: A Fast and Ultra Low Complexity Network for Single-Channel Speech Enhancement #语音增强 #循环神经网络 #低资源 #实时处理 ✅ 7.5/10 | 前25% | #语音增强 | #循环神经网络 | #低资源 #实时处理 学术质量 7.5/7 | 选题价值 7.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nicolás Arrieta Larraza (Bang & Olufsen, Allé 1 7600 Struer, Denmark) 通讯作者:未说明 作者列表:Nicolás Arrieta Larraza (Bang & Olufsen), Niels de Koeijer (Bang & Olufsen) 💡 毒舌点评 亮点: 论文敏锐地发现了FastGRNN在长序列推理时的“状态漂移”这一实用陷阱,并受传感器互补滤波启发提出了一个优雅、轻量且可训练的修复方案(Comfi-FastGRNN),体现了从工程实践中发现问题并解决问题的能力。短板: 创新主要是将一个已有的轻量RNN架构(FastGRNN)替换到另一个轻量模型(ULCNet)中,本质是模块替换,在短音频(10秒)标准评测集上并未带来性能提升甚至略有损失,其核心贡献更偏向于“工程优化”而非“算法突破”。 📌 核心摘要 问题:单通道语音增强算法需要在资源受限的嵌入式设备上运行,要求极低的计算复杂度和延迟。 方法核心:本文提出Fast-ULCNet,将现有低复杂度模型ULCNet中的GRU层替换为更轻量的FastGRNN层,以进一步降低计算开销和延迟。 新发现与创新:研究发现FastGRNN在推理长音频信号(>60秒)时性能会因内部状态漂移而下降。为此,提出了Comfi-FastGRNN,通过一个可训练的互补滤波器模块来抑制状态漂移。 主要实验结果:在DNS Challenge 2020数据集上,Fast-ULCNet在10秒测试集上与原始ULCNet性能相当;在90秒长测试集上,未经改进的FastGRNN性能显著下降,而Comfi-FastGRNN版本则恢复了稳定性,与ULCNet持平。模型参数量减少超过一半(从0.685M降至0.338M),在Raspberry Pi 3 B+上的平均实时因子(RTF)降低约34%(从0.976降至0.657)。 实际意义:该工作使得高性能语音增强模型更容易部署到智能耳机、助听器等低功耗实时设备上。 主要局限性:长序列评估仅通过拼接自身构造,可能不完全反映真实世界的持续流式处理场景;在短序列标准基准上,Fast-ULCNet的PESQ和SI-SDR指标略低于原始ULCNet。 🏗️ 模型架构 Fast-ULCNet的架构基于ULCNet,主要分为两个阶段: ...

2026-04-29

FastEnhancer: Speed-Optimized Streaming Neural Speech Enhancement

📄 FastEnhancer: Speed-Optimized Streaming Neural Speech Enhancement #语音增强 #神经网络 #流式处理 #实时处理 🔥 8.5/10 | 前25% | #语音增强 | #神经网络 | #流式处理 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Sunghwan Ahn(首尔大学电气与计算机工程系,INMC) 通讯作者:未说明(论文中提供了多位作者的邮箱,但未明确指定通讯作者) 作者列表:Sunghwan Ahn(首尔大学电气与计算机工程系,INMC)、Jinmo Han(首尔大学电气与计算机工程系,INMC)、Beom Jun Woo(首尔大学电气与计算机工程系,INMC)、Nam Soo Kim(首尔大学电气与计算机工程系,INMC) 💡 毒舌点评 亮点在于它像一位精明的工程师,将“简单即高效”的哲学贯穿始终,用看似基础的编码器-解码器和精心挑选的RNNFormer模块,在单CPU线程上跑出了碾压一众复杂架构的推理速度,证明了花哨不等于高效。短板则是其架构的核心创新(RNNFormer的特定组合)更像是一个面向工程目标的“最优配置”而非颠覆性理论突破,且论文并未深入探讨模型在极端非平稳噪声或严重混响下的性能边界。 📌 核心摘要 这篇论文针对流式语音增强任务中,现有深度学习模型虽然参数量和MACs减少,但因架构复杂导致在通用硬件(如单CPU线程)上实际推理延迟高的问题,提出了FastEnhancer模型。其方法核心是采用一个简单的编码器-解码器结构,并引入了一种新型的RNNFormer模块,该模块在时间轴使用高效的GRU,在频率轴使用多头自注意力机制(MHSA),以兼顾低延迟流式处理与全局频率关系建模。与先前研究相比,新方法摒弃了复杂的子带分解和分组DPRNN设计,转而追求架构的简洁性和针对速度的优化(如仅使用时间轴卷积核大小为1的卷积、可融合的批归一化层)。主要实验结果在VCTK-Demand数据集上显示,FastEnhancer在多个尺寸配置下均达到了SOTA的语音质量和可懂度指标(例如,FastEnhancer-B在PESQ上达到3.13,STOI达到94.5%),同时实现了所有对比模型中最低的实时因子(RTF),其中FastEnhancer-T在Xeon CPU上的RTF仅为0.012。该工作的实际意义在于为实时、资源受限的设备(如助听器、智能家居)提供了一个高性能且超低延迟的语音增强解决方案。主要局限性是论文的实验主要集中在客观指标和特定硬件上的RTF,未报告主观听感测试或在更多样化的真实噪声场景下的泛化性能,且对模型处理极端复杂声学条件的能力探讨不足。 实验结果表格1:在VCTK-Demand数据集上的性能对比 模型 参数量 (K) MACs RTF (Xeon) RTF (M1) DNSMOS (P.808) SISDR PESQ STOI ESTOI WER GTCRN 24 40M 0.060 0.042 3.43 18.8 2.87 0.940 0.848 3.6 LiSenNet (可流式) 37 56M 0.034 0.028 3.42 18.5 2.98 0.941 0.851 3.4 FSPEN 79 64M 0.046 0.038 3.40 18.4 3.00 0.942 0.850 3.6 BSRNN 334 245M 0.059 0.062 3.44 18.9 3.06 0.942 0.855 3.4 FastEnhancer-T 22 55M 0.012 0.013 3.42 18.6 2.99 0.940 0.850 3.6 FastEnhancer-B 92 262M 0.022 0.026 3.47 19.0 3.13 0.945 0.861 3.2 FastEnhancer-S 195 664M 0.034 0.048 3.49 19.2 3.19 0.947 0.866 3.2 FastEnhancer-M 492 2.9G 0.101 0.173 3.48 19.4 3.24 0.950 0.873 2.8 FastEnhancer-L 1105 11G 0.313 0.632 3.53 19.6 3.26 0.952 0.877 3.1 实验结果表格2:消融研究 ...

2026-04-29

FlashFoley: Fast Interactive Sketch2audio Generation

📄 FlashFoley: Fast Interactive Sketch2audio Generation #音频生成 #流匹配 #对抗训练 #实时处理 ✅ 7.5/10 | 前25% | #音频生成 | #流匹配 | #对抗训练 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Zachary Novack (UC San Diego; Sony Group Corporation, Japan) 通讯作者:Christian Simon† (Sony AI, USA) (论文中标注†为“Project lead”,通常可视为通讯作者) 作者列表:Zachary Novack¹,²,Koichi Saito³,Zhi Zhong²,Takashi Shibuya³,Shuyang Cui²,Julian McAuley¹,Taylor Berg-Kirkpatrick¹,Christian Simon²†,Shusuke Takahashi²,Yuki Mitsufuji²,³ ¹ UC – San Diego ² Sony Group Corporation, Japan ³ Sony AI, USA 💡 毒舌点评 亮点:这篇论文精准地切中了当前交互式音频生成工具的一个核心痛点——“精细控制”与“实时速度”不可兼得,并给出了一个工程上巧妙且相对完整的解决方案,首次将开源加速的草图到音频模型带入实时交互场景。 短板:虽然方法组合很实用,但核心的“创新”更多是已有技术(草图控制、ARC后训练、流式生成)的整合与适配,缺乏根本性的理论突破;另外,文中“开源”的承诺尚未在论文发布时兑现,这削弱了其作为“首个开源”模型的即时影响力。 ...

2026-04-29

H-nnPBFDAF: Hierarchical Neural Network Partitioned Block Frequency Domain Adaptive Filter with Novel Block Activation Probability

📄 H-nnPBFDAF: Hierarchical Neural Network Partitioned Block Frequency Domain Adaptive Filter with Novel Block Activation Probability #语音增强 #信号处理 #时频分析 #实时处理 #低资源 ✅ 7.5/10 | 前25% | #语音增强 | #信号处理 | #时频分析 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Jitao Ma(浙江大华技术股份有限公司)(论文标注为共同第一贡献) 通讯作者:Ruidong Fang(浙江大华技术股份有限公司) 作者列表:Jitao Ma(浙江大华技术股份有限公司),Jingbiao Huang(浙江大华技术股份有限公司),Ruidong Fang(浙江大华技术股份有限公司),Jucai Lin(浙江大华技术股份有限公司),Han Xue(浙江大华技术股份有限公司),Yapeng Mao(浙江大华技术股份有限公司),Jun Yin(浙江大华技术股份有限公司) 💡 毒舌点评 本文亮点在于提出了“块激活概率”这一巧妙机制,用一个紧凑的神经网络同时解决了传统自适应滤波器步长选择和滤波器长度固定两大痛点,且计算开销极低。然而,纯线性框架可能在处理设备扬声器严重非线性失真时存在天花板,而论文中的对比实验(如与Deep Adaptive AEC的比较)也显示在复杂场景下其性能仍不及更重的混合方法,且代码未开源限制了复现价值。 📌 核心摘要 问题:在低成本消费设备上部署声学回声消除(AEC)时,传统自适应滤波器(如PBFDAF)面临步长选择困难、滤波器长度需手动固定以适应不同回声路径、以及现有神经网络混合方法计算成本过高的挑战。 方法核心:提出神经网络分块频域自适应滤波器(nnPBFDAF)。核心是一个轻量神经网络,它同时估计频域步长向量(用于替代固定步长)和块激活概率向量(每个分块一个概率值)。块激活概率向量的和可用于间接控制有效滤波器长度,实现自动适应。进一步提出两阶段层次结构(H-nnPBFDAF),第一阶段估计的回声作为第二阶段的参考信号,以提升鲁棒性。 创新点:a) 将神经网络步长估计与PBFDAF深度融合;b) 引入块激活概率向量,首次解决了固定分块数PBFDAF无法自适应不同回声路径长度的难题;c) 设计两阶段级联架构(H-nnPBFDAF),以粗到精的方式提升回声估计精度。 实验结果:在三个测试集上进行评估。如表1所示,在模拟短回声路径(Subset 1)上,H-nnPBFDAF的PESQ为3.12,ERLE为34.57 dB,优于传统PBFDKF(PESQ 2.93, ERLE 25.77 dB)。在AEC Challenge盲测集(Subset 2)上,H-nnPBFDAF在双讲回声评价(DT-E)得分为3.40,略低于Deep Adaptive AEC(4.40),但计算复杂度仅为其约1/26。在真实消费设备数据(Subset 3)上,H-nnPBFDAF的ERLE为21.47 dB,显著优于NKF(7.29 dB)。消融实验(表2)证实,采用块激活概率的nnPBFDAF在不同回声路径长度下的平均PESQ(2.87)优于所有固定分块数模型。 实际意义:该方法在极低计算开销(仅占ARM Cortex-A35单核<9%资源)下实现了高性能AEC,并能自动适应回声路径变化,非常适合资源受限的消费类电子产品(如智能音箱、会议设备)部署,且模型已实际部署。 主要局限性:作为线性AEC框架,对高度非线性失真的回声消除能力可能有限;神经网络部分的具体结构和训练策略细节(如优化器、学习率)未完全公开;代码未开源。 🏗️ 模型架构 模型的核心是nnPBFDAF模块,其整体流程和内部结构如下图所示: ...

2026-04-29

Huí Sù: Co-constructing a Dual Feedback Apparatus

📄 Huí Sù: Co-constructing a Dual Feedback Apparatus #音乐生成 #生成模型 #实时处理 #信号处理 📝 5.5/10 | 后50% | #音乐生成 | #生成模型 | #实时处理 #信号处理 | arxiv 学术质量 5.0/7 | 选题价值 2.0/2 | 复现加成 -1.0 | 置信度 高 👥 作者与机构 第一作者:Yichen Wang(The Australian National University) 通讯作者:未说明(论文未明确指定通讯作者,但提供了两位作者的邮箱) 作者列表:Yichen Wang(The Australian National University, Canberra, ACT, Australia)、Charles Patrick Martin(The Australian National University, Canberra, ACT, Australia) 💡 毒舌点评 论文提出了一个有趣且概念完整的“双反馈”智能乐器二重奏系统,巧妙地将AI在音频潜空间和MIDI控制流中的反馈作用进行对比与融合,为表演艺术提供了新的交互范式。然而,其致命短板在于完全缺乏任何形式的定量评估、对比实验或详细的可复现技术描述,使得整个工作停留在艺术项目展示层面,学术严谨性和可复现性严重不足。 📌 核心摘要 这篇论文是NIME‘26的一场艺术表演提案,旨在探索两个智能乐器“溯”(Sù)和“Agentier”通过反馈回路与人类表演者进行二重奏。要解决的问题是如何在音乐表演中实现人与AI更深度的共同创作,而非单向控制。其方法核心是构建两个对比系统:“溯”在音频潜空间(基于RAVE模型)引入潜变量反馈,使音色演变具有时序连续性;“Agentier”在MIDI控制空间(基于MDRNN模型)引入控制信号反馈,使系统能生成和延续演奏手势。与已有方法相比,新在将“反馈”这一概念系统地拆解并实现在音乐生成的两个不同层面(音频与控制),并将其置于协同表演的语境中。主要实验结果未提供定量数据,仅通过一段12分钟的即兴表演视频(链接:https://doi.org/10.5281/zenodo.19673150)进行概念验证,展示了系统在实际演出中的可行性。实际意义在于为智能乐器设计和人机交互艺术实践提供了新的思路和系统原型。主要局限性在于缺乏可量化的性能评估、对比研究以及详细的技术复现信息。 🏗️ 模型架构 论文描述了两个独立的智能乐器系统架构,二者共同构成一个双反馈演出装置。 系统1:溯 (Sù) - 音频潜空间反馈乐器 ...

2026-04-29