ICASSP 2026 - 实时处理 论文列表

ICASSP 2026 - 实时处理 共 1 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 A Personalized Real-Time Proactive Voice Memory Assistant 7.0分 前50% 📋 论文详情 🥇 A Personalized Real-Time Proactive Voice Memory Assistant ✅ 7.0/10 | 前50% | #实时处理 | #大语言模型 | #语音识别 #说话人识别 👥 作者与机构 第一作者:Hao Zhou (Samsung Research America, The Pennsylvania State University) - 根据作者列表顺序和标注“†”判断。 通讯作者:论文中未明确标注通讯作者。 作者列表:Hao Zhou¹²†, Md Mahbubur Rahman¹, Simon A. Lee¹³†, Baiying Lu¹⁴†, Juhyeon Lee¹⁵†, Cyrus Tanade¹, Megha Thukral¹⁶†, Md. Sazzad Hissain Khan⁷, Samsad Ul Islam⁷, Subramaniam Venkatraman¹, Sharanya Arcot Desai¹。 机构信息:¹Samsung Research America, ²The Pennsylvania State University, ³University of California, Los Angeles, ⁴Dartmouth, ⁵University of Massachusetts Amherst, ⁶Georgia Institute of Technology, ⁷Samsung Research Bangladesh。标注“†”表示工作在三星研究美国实习期间完成。 💡 毒舌点评 ...

2026-04-29

Joint Deep Secondary Path Estimation and Adaptive Control for Active Noise Cancellation

📄 Joint Deep Secondary Path Estimation and Adaptive Control for Active Noise Cancellation #语音增强 #端到端 #实时处理 #深度学习 #信号处理 ✅ 7.5/10 | 前25% | #语音增强 | #端到端 | #实时处理 #深度学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Fareedha (National Institute of Technology, Warangal, Telangana, India) 通讯作者:未说明 作者列表:Fareedha (National Institute of Technology, Warangal, Telangana, India)、Vasundhara (National Institute of Technology, Warangal, Telangana, India)、Asutosh Kar (Birmingham City University, Birmingham, UK)、Mads Græsbøll Christensen (Aalborg University, Denmark) 💡 毒舌点评 论文将深度学习中的估计与控制模块“缝合”得相当流畅,消融实验做得很扎实,有力地证明了注意力机制和双向LSTM在其中的价值。然而,核心创新更多是工程层面的集成优化,而非方法论的革新;且实验场景(主要是飞机噪声)稍显单一,要宣称在“动态环境”下鲁棒,或许还应挑战更多极端的非平稳声学条件。 ...

2026-04-29

Joint Estimation of Primary and Secondary Paths for Personalized Hearable Applications

📄 Joint Estimation of Primary and Secondary Paths for Personalized Hearable Applications #主动降噪 #信号处理 #自适应滤波器 #实时处理 #鲁棒性 ✅ 7.5/10 | 前25% | #主动降噪 | #信号处理 | #自适应滤波器 #实时处理 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明(论文未明确标注) 通讯作者:未说明(论文未明确标注) 作者列表:Sooyeon Park (Samsung Research, Seoul, South Korea), Kyoungbo Min (Samsung Research, Seoul, South Korea), Seungdo Choi (Samsung Research, Seoul, South Korea), Ikchae Jeong (Samsung Research, Seoul, South Korea), Hosang Sung (Samsung Research, Seoul, South Korea) 💡 毒舌点评 亮点:该工作巧妙地将一个通常需要额外激励或离线数据的双路径在线估计问题,转化为一个利用现有自适应滤波器系数变化和音乐播放作为“天然激励”的可识别线性系统,并给出了严格的可解性条件,理论框架非常优雅实用。 短板:实验部分“高高举起,轻轻放下”,核心的路径估计精度验证不错,但最终的ANC性能对比(表1)却只和一个“固定滤波器”简单比拼,缺少与文献中其他在线二次路径估计方法的横向对比,削弱了方法优越性的说服力,也暴露了其作为一篇完整研究论文的验证闭环不够完整。 ...

2026-04-29

LAFUFU: Latent Acoustic Features For Ultra-Fast Utterance Restoration

📄 LAFUFU: Latent Acoustic Features For Ultra-Fast Utterance Restoration #语音增强 #扩散模型 #实时处理 #潜在空间 🔥 8.0/10 | 前25% | #语音增强 | #扩散模型 | #实时处理 #潜在空间 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Łazarz Radosław Wosik(论文作者列表首位,但未明确标注为第一作者) 通讯作者:论文中未明确标注 作者列表:Łazarz Radosław Wosik (Samsung R&D Institute Poland), Mateusz Pudo (Samsung R&D Institute Poland), Urszula Krywalska (Samsung R&D Institute Poland), Adam Cie´slak (Samsung R&D Institute Poland), († AGH University of Krak´ow) — 论文开头列出作者姓名及主要所属机构为Samsung R&D Institute Poland,其中一位作者带有†标记,表示其同时隶属于AGH University of Krak´ow。 💡 毒舌点评 亮点在于它非常务实且有效:通过将扩散过程搬到一个更小、更高效的潜在空间里,直接戳破了生成式语音恢复“效果好但算力吃不消”的泡沫,实现了显著的加速(RTF降低约40%)而不牺牲质量。短板是其创新本质是“缝合”了图像领域的Latent Diffusion思想和语音领域的SGMSE+模型,属于应用创新而非理论突破,且双模型架构无形中增加了部署时的内存管理复杂度。 ...

2026-04-29

Lisa: Lightweight Yet Superb Neural Speech Coding

📄 Lisa: Lightweight Yet Superb Neural Speech Coding #语音编码 #向量量化 #信号处理 #实时处理 🔥 8.5/10 | 前25% | #语音编码 | #信号处理 | #向量量化 #实时处理 学术质量 8.5/7 | 选题价值 7.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jiankai Huang (南京大学) 通讯作者:Xun Cao (南京大学), Zhan Ma (南京大学) 作者列表:Jiankai Huang (南京大学), Junteng Zhang (南京大学), Ming Lu (南京大学), Xun Cao (南京大学), Zhan Ma (南京大学) 💡 毒舌点评 论文提出的“调节残差使其更利于量化”这一核心思想非常巧妙且实用,直击传统RVQ在后续阶段效率低下的痛点,最终实现了在超低比特率下用极小的模型超越一众巨型模型(如参数量4.98M vs 872M的SemantiCodec)。不过,实验部分略显“基础”,虽然对比了多个模型,但缺乏对更复杂噪声环境、不同语言或说话人风格下鲁棒性的分析,也缺乏直接的主观听感(MOS)测试,说服力上稍打折扣。 📌 核心摘要 问题:现有神经语音编码器在低/超低比特率下,编码效率受限于特征表示能力和量化过程的不足,特别是传统残差向量量化(RVQ)在初始阶段后,残差变得不规则,导致量化损失高、效率低下。 方法核心:提出轻量级编码器-解码器Lisa,其核心是引入两个创新模块:(1) 带Inception残差块(IRB)的因果频域编码器,用于提取多尺度特征;(2) 受调节残差向量量化(R-RVQ),在每个量化阶段前通过一个可学习模块将残差“调节”为更规整、更适合量化的形式。 新在哪里:R-RVQ首次在量化前主动对残差进行结构化重塑,而非被动处理原始残差。这与传统RVQ直接堆叠量化器有本质区别,确保了每个阶段都能有效降低量化误差。 实验结果:在LibriTTS数据集上,Lisa在500 bps时ViSQOL达3.90,在1500 bps时达4.43,超越了FunCodec、MUFFIN、StreamCodec等基线模型,同时模型参数仅4.98M,计算量为2.83G MACs,适合实时流式应用。 实际意义:为在极低带宽下实现高质量、低延迟的实时语音通信(如视频会议、云游戏)提供了高效可行的解决方案。 主要局限性:实验主要在干净语音(LibriTTS)上验证,对噪声、失真或实际网络传输环境的鲁棒性未作评估;评估指标依赖客观分数,缺少主观听感测试;对模型在极低延迟(<10ms)场景下的性能未做专门探讨。 🏗️ 模型架构 Lisa的整体架构遵循“编码-量化-解码”的经典范式,但全程在时频域(STFT域)操作以利用多分辨率特征。其完整流程如下: ...

2026-04-29

Low-Frequency Harmonic Control for Speech Intelligibility in Open-Ear Headphones

📄 Low-Frequency Harmonic Control for Speech Intelligibility in Open-Ear Headphones #语音增强 #信号处理 #鲁棒性 #实时处理 ✅ 6.5/10 | 前50% | #语音增强 | #信号处理 | #鲁棒性 #实时处理 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Yuki Watanabe(NTT Inc., Tokyo, Japan)(基于作者列表顺序判断,论文未明确标注) 通讯作者:未说明 作者列表:Yuki Watanabe(NTT Inc., Tokyo, Japan)、Hironobu Chiba(NTT Inc., Tokyo, Japan)、Yutaka Kamamoto(NTT Inc., Tokyo, Japan)、Tatsuya Kako(NTT Inc., Tokyo, Japan) 💡 毒舌点评 亮点:巧妙地利用了语音基频与谐波之间的能量关系,通过“抑制基频、增强谐波”这种反直觉的方式,在特定硬件限制(小扬声器低频弱)和环境掩蔽(低频噪声强)下找到了一个提升可懂度的“巧劲儿”,想法很有针对性。 短板:实验部分过于“迷你”——仅用8位听众和6个语音样本就得出“显著提高”的结论,说服力不足,且完全没有与经典的语音增强算法(如谱减法、维纳滤波)进行对比,让人无法判断其在现有技术体系中的真实位置。 📌 核心摘要 解决的问题:开放式耳机因采用小型扬声器单元导致低频输出不足,在嘈杂环境中(尤其是存在大量低频成分的环境噪声时),语音的低频部分容易被掩蔽,导致可懂度下降。 方法核心:提出一种名为“低频谐波控制(LFHC)”的低复杂度后处理方法。核心是通过一个延迟为基频周期2.5倍(τ=τ₀/2.5)的FIR梳状滤波器来抑制语音的基频(F0),并同时增强其第二和第三谐波,然后将处理后的信号通过一个截止频率为5倍基频的低通滤波器,最后与原信号相加。 创新之处:与传统强调基频的音高增强不同,本方法反其道而行之,专注于将能量从易被掩蔽的基频重新分配到不易被掩蔽且耳机仍能有效重现的第二、三谐波频带。该方法计算复杂度低,适合在开放式耳机的DSP芯片上实时运行。 主要实验结果:在棕色噪声(69 dB SPL)环境下,使用类似MUSHRA的主观评估(但标准为可懂度)。当加权因子α=0.6时,处理后语音的可懂度得分(相对于未处理同音量语音)在6个测试语音样本中的3个上获得了显著提升,对另外3个无显著降低;当α=0.9时,过度处理导致2个样本的可懂度显著下降。散点图显示,处理前第二、三谐波能量相对基频较高的语音,处理收益较小(相关系数-0.93)。详细数据见下表: 处理条件 声压级 (dB SPL) 说明 OR (原始参考) 60 未经处理的原始语音 OR-3 57 未经处理,音量降低3 dB OR-6 54 未经处理,音量降低6 dB LFHC-3(0.6) 57 使用本文方法(α=0.6),音量与OR-3相同 LFHC-3(0.9) 57 使用本文方法(α=0.9),音量与OR-3相同 图5(论文中图片4)展示了不同条件下语音可懂度得分的均值及95%置信区间。与未处理的OR-3相比,LFHC-3(0.6)对多数样本有正向提升或无影响,而LFHC-3(0.9)则对部分样本产生负面影响。 ...

2026-04-29

Low-Latency Audio Front-End Region-of-Interest Beamforming for Smart Glasses

📄 Low-Latency Audio Front-End Region-of-Interest Beamforming for Smart Glasses #语音增强 #波束成形 #实时处理 #多通道 ✅ 7.0/10 | 前25% | #语音增强 | #波束成形 | #实时处理 #多通道 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Ariel Frank(Technion – Israel Institute of Technology, Andrew and Erna Viterbi Faculty of Electrical and Computer Engineering) 通讯作者:未说明 作者列表:Ariel Frank(Technion – Israel Institute of Technology, Andrew and Erna Viterbi Faculty of Electrical and Computer Engineering)、Israel Cohen(Technion – Israel Institute of Technology, Andrew and Erna Viterbi Faculty of Electrical and Computer Engineering) 💡 毒舌点评 亮点:论文最大的价值在于其“公正裁判”的角色——它没有盲目声称自己方法最优,而是通过建立一个统一的数学框架,用同一套指标(延迟、复杂度、性能)系统地量化比较了时域和STFT域两种主流实现路径,结论清晰且有实验数据强力支撑,为智能眼镜产品的技术选型提供了坚实的工程依据。 短板:研究范畴严格限定在传统信号处理波束成形的对比上,完全未与当前火热的基于深度学习的波束成形/语音增强方法进行对比(即使引用了相关工作),使得结论的时效性和全面性打了折扣;实验在高度可控的消声室完成,对于智能眼镜实际使用中复杂的混响、噪声、多人的环境泛化性未经验证。 ...

2026-04-29

Matching Reverberant Speech Through Learned Acoustic Embeddings

📄 Matching Reverberant Speech Through Learned Acoustic Embeddings #音频生成 #信号处理 #空间音频 #实时处理 🔥 8.0/10 | 前25% | #音频生成 | #信号处理 | #空间音频 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Philipp Götz(International Audio Laboratories Erlangen†,Germany) 通讯作者:未说明 作者列表:Philipp Götz(International Audio Laboratories Erlangen†,Germany)、Gloria Dal Santo(Acoustics Lab, Dpt. of Information and Communications Engineering, Aalto University,Finland)、Sebastian J. Schlecht(Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU),Germany)、Vesa Välimäki(Acoustics Lab, Dpt. of Information and Communications Engineering, Aalto University,Finland)、Emanuël A. P. Habets(International Audio Laboratories Erlangen†,Germany) †International Audio Laboratories Erlangen是Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU)和Fraunhofer IIS的联合机构。 💡 毒舌点评 亮点在于将混响参数盲估计任务巧妙重构为“信号匹配”问题,并利用一个改进的、可微分的FDN结构(尤其是可学习的正交反馈矩阵)显著提升了合成混响在声学参数(如T30)上的准确性。然而,论文的短板在于其对混响早期反射模式的建模能力有限,且当前评估主要局限于语音信号,对音乐等激励源下的泛化能力以及噪声鲁棒性未做充分验证。 ...

2026-04-29

Meanflow-Accelerated Multimodal Video-to-Audio Synthesis Via One-Step Generation

📄 Meanflow-Accelerated Multimodal Video-to-Audio Synthesis Via One-Step Generation #音频生成 #流匹配 #音视频 #实时处理 ✅ 7.5/10 | 前25% | #音频生成 | #流匹配 | #音视频 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Xiaoran Yang(武汉大学电子信息学院) 通讯作者:Gongping Huang(武汉大学电子信息学院) 作者列表:Xiaoran Yang(武汉大学电子信息学院)、Jianxuan Yang(小米MiLM Plus,武汉)、Xinyue Guo(小米MiLM Plus,武汉)、Haoyu Wang(西南财经大学计算机与人工智能学院)、Ningning Pan(西南财经大学计算机与人工智能学院)、Gongping Huang(武汉大学电子信息学院) 💡 毒舌点评 这篇论文的核心亮点是将MeanFlow的一步生成能力成功“移植”到多模态VTA合成任务上,实现了推理速度的数量级提升,这在实际应用中极具吸引力。然而,其短板也相当明显:核心创新组件(MeanFlow和CFG-scaled)均非作者首次提出,论文更偏向于一项有价值的工程集成与任务适配,且消融实验仅探讨了CFG强度和训练配对比例,对于MeanFlow框架如何具体适配多模态条件融合的机制剖析不够深入。 📌 核心摘要 要解决什么问题:现有的基于流匹配的视频到音频(VTA)合成方法依赖多步迭代采样,导致推理速度慢,难以满足实时应用需求。同时,一步生成场景下应用分类器引导(CFG)容易因缺乏迭代修正而产生过冲和失真。 方法核心是什么:提出MeanFlow加速的多模态联合训练框架(MF-MJT)。核心是在多模态联合训练的骨干网络(基于MMAudio)上,采用MeanFlow公式建模平均速度场,从而支持原生一步生成。为稳定CFG,引入标量缩放机制(CFG-scaled),动态调整无条件预测的权重。 与已有方法相比新在哪里:相比之前建模瞬时速度的方法(需多步积分),MF-MJT建模平均速度,实现了原生一步生成。相比其他一步生成方法(如Frieren依赖多阶段蒸馏),MF-MJT通过MeanFlow公式直接支持一步推理。同时,针对一步生成场景提出了CFG-scaled机制来平衡引导质量。 主要实验结果如何:在VGGSound测试集的VTA任务上,MF-MJT一步生成(RTF=0.007)相比Frieren(RTF=0.015)在分布匹配(FAD↓1.46 vs 1.87)、音频质量(IS↑9.39 vs 9.14)等指标上均更优,速度提升一倍以上。在AudioCaps测试集的TTA任务上,MF-MJT一步生成(RTF=0.007)在FAD(↓2.29)、FD(↓21.32)等指标上优于AudioLCM(RTF=0.016)。关键结果见下表: 表1:VGGSound测试集VTA合成结果(一步生成) 方法 FAD ↓ FD ↓ KL ↓ IS ↑ IB ↑ DeSync ↓ RTF ↓ Frieren (1-step) 1.87 16.64 2.56 9.14 21.92 0.85 0.015 MF-MJT (ours) 1.46 11.14 1.87 9.39 21.78 0.86 0.007 表2:AudioCaps测试集TTA合成结果(一步生成) ...

2026-04-29

MeanFlowSE: One-Step Generative Speech Enhancement via Conditional Mean Flow

📄 MeanFlowSE: One-Step Generative Speech Enhancement via Conditional Mean Flow #语音增强 #流匹配 #实时处理 #生成模型 ✅ 7.5/10 | 前10% | #语音增强 | #流匹配 | #实时处理 #生成模型 学术质量 6.5/7 | 选题价值 1.6/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Duojia Li(厦门大学电子科学与工程学院) 通讯作者:Qingyang Hong(厦门大学信息学院)、Lin Li(厦门大学电子科学与工程学院) 作者列表:Duojia Li(厦门大学电子科学与工程学院)、Shenghui Lu(厦门大学信息学院)、Hongchen Pan(厦门大学电子科学与工程学院)、Zongyi Zhan(厦门大学电子科学与工程学院)、Qingyang Hong(厦门大学信息学院)、Lin Li(厦门大学电子科学与工程学院) 💡 毒舌点评 亮点:论文巧妙地将近期提出的“平均速度场”理论(Mean Flow)适配到条件语音增强任务中,通过设计新颖的训练目标,实现了生成模型在语音增强上首次真正意义上的单步高质量推理,将RTF从0.23(FlowSE)降至0.11,效率提升显著且未牺牲性能。 短板:论文的消融实验略显单薄,未能深入探讨“平均速度场”与“瞬时速度场”在语音信号上的具体误差累积差异;同时,其性能高度依赖于所选择的线性-高斯条件路径,对更复杂或非高斯噪声场景下的泛化能力未做讨论,这可能是其实际部署的一个潜在限制。 📌 核心摘要 解决的问题:传统的基于流匹配或扩散模型的生成式语音增强方法需要多步迭代求解ODE,导致推理速度慢、计算成本高,难以满足实时应用需求。 方法核心:提出MeanFlowSE,一个学习平均速度场而非瞬时速度场的条件生成模型。通过利用MeanFlow恒等式和雅可比-向量积构造局部训练目标,直接监督有限时间区间内的位移。在推理时,仅需单步反向位移即可从噪声估计生成增强语音,无需迭代ODE求解器。 创新之处:首次将Mean Flow理论应用于条件语音增强任务,将其从无条件生成扩展到有条件的条件生成框架。设计的训练目标在对角线(r=t)处自然退化为标准条件流匹配目标,保持了理论一致性。该方法无需知识蒸馏或外部教师模型。 实验结果:在VoiceBank-DEMAND基准测试中,单步MeanFlowSE取得了最优的PESQ (3.207)、ESTOI (0.881)、SI-SDR (19.975 dB) 和DNSMOS BAK (4.073),同时实现了最低的实时因子(RTF=0.11),远优于需要5-200步的多步基线模型。 实际意义:为实时、高保真的生成式语音增强提供了一个高效框架。单步推理特性使其在资源受限的边缘设备(如助听器、通信终端)上具有巨大应用潜力。 主要局限:当前模型依赖于预设的线性-高斯条件路径,其对复杂噪声或非高斯分布的适应性未被验证。一阶导数近似可能限制了模型对高度非线性轨迹的学习能力。 🏗️ 模型架构 MeanFlowSE 的核心是一个用于估计平均速度场 u_θ(x, r, t, y) 的神经网络。 ...

2026-04-29