Generating Moving 3d Soundscapes with Latent Diffusion Models

📄 Generating Moving 3d Soundscapes with Latent Diffusion Models #空间音频 #扩散模型 #音频生成 #数据增强 #多通道 ✅ 7.5/10 | 前25% | #空间音频 | #扩散模型 | #音频生成 #数据增强 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Christian Templin (Stevens Institute of Technology, Hoboken, NJ, USA) 通讯作者:未说明 作者列表:Christian Templin(Stevens Institute of Technology)、Yanda Zhu(Hunan Normal University, Changsha, China)、Hao Wang(Stevens Institute of Technology) 💡 毒舌点评 亮点:首次将潜在扩散模型用于生成带动态声源轨迹控制的一阶Ambisonics音频,并构建了首个大规模带标注的动态空间音频数据集,填补了明确的空白。短板:虽然引入了参数化模型以提高空间精度,但对“动态”这一核心特性的评估主要停留在起止点的角度误差上,对声源在运动过程中轨迹的平滑度、连续性以及听感上的真实性缺乏更细致的量化分析和主观评估。 📌 核心摘要 问题:现有文本到音频生成模型大多局限于单声道或立体声,无法生成完整的三维空间音频。少数能生成一阶Ambisonics(FOA)音频的模型仅支持静态声源,无法处理用户指定的动态声源轨迹,且缺乏相关训练数据集。 方法核心:提出SonicMotion框架,这是一个端到端的潜在扩散模型,专为生成FOA音频设计。其核心创新在于引入了两种条件化方式:1)描述式模型,仅使用文本提示;2)参数式模型,额外使用一个“状态矩阵”作为条件,该矩阵显式编码了声源在时间上的方位角和仰角轨迹。 新意:这是首个能够生成带有用户可控运动轨迹的FOA音频的潜在扩散模型。同时,为解决数据匮乏问题,作者构建了一个超过100万对模拟的FOA-文本数据对的新数据集,包含静态和动态声源及详细运动元数据。 主要结果:实验表明,SonicMotion在语义对齐(CLAP分数)和感知质量(FD, FAD)上与领先的文本到音频模型(如AudioLDM 2)相当。在空间精度上,参数式模型(SM-P)显著优于描述式模型(SM-D),其方位角误差降至13.17°,仰角误差降至4.01°,空间总角度误差降至14.32°,相比SM-D有约51%的整体性能提升。自编码器的重建保真度极高,空间角度误差仅为3.72°。 实际意义:为VR/AR、电影和音乐制作提供了自动化创建沉浸式动态声景的新工具,有望降低专业空间音频内容的制作门槛和成本。 主要局限性:模型基于模拟数据训练和评估,其在真实录音或复杂声学场景下的泛化能力有待验证。评估指标主要关注声源起止点的定位精度,对整个运动轨迹的保真度评估不足。此外,仅支持一阶Ambisonics,更高阶的空间分辨率有待探索。 🏗️ 模型架构 SonicMotion是一个端到端的框架,整体流程分为数据准备、自编码器训练和扩散模型生成三个主要阶段。 ...

2026-04-29

HergNet: A Fast Neural Surrogate Model for Sound Field Predictions Via Superposition of Plane Waves

📄 HergNet: A Fast Neural Surrogate Model for Sound Field Predictions Via Superposition of Plane Waves #空间音频 #物理信息神经网络 #声学模拟 ✅ 7.0/10 | 前25% | #空间音频 | #物理信息神经网络 | #声学模拟 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Matteo Calafà(丹麦技术大学,电气与光子工程系,声学技术部门) 通讯作者:论文中未明确标注通讯作者 作者列表:Matteo Calafà(丹麦技术大学,电气与光子工程系,声学技术部门)、Yuanxin Xia(丹麦技术大学,电气与光子工程系,声学技术部门)、Cheol-Ho Jeong(丹麦技术大学,电气与光子工程系,声学技术部门) 💡 毒舌点评 这篇论文最聪明的地方在于把“物理定律”硬编码进了网络架构,让神经网络生来就是“正确”的,省去了经典PINNs在内部点计算损失的苦工,在中高频段算得又快又准。不过,为了追求“快速”和“物理正确”,它默认了声场就是平面波的叠加,导致在低频段(更像扩散问题时)表现拉胯,而且对比的主要是自己实现的解析解,没能和工业界常用的FEM、BEM等“老大哥”直接掰手腕,显得有点“偏科”。 📌 核心摘要 要解决什么问题:传统数值方法(如FEM)和经典物理信息神经网络(PINNs)在模拟中高频声场时计算成本高、收敛困难。本文旨在提出一种更高效、物理上精确的神经网络代理模型。 方法核心是什么:提出HergNet架构。其核心思想是基于Herglotz表示定理,将声场显式表示为可训练平面波(带方向s_j、相位d_j)的叠加。其中,每个平面波的复振幅由一个共享的、以入射方向为输入的神经网络˜h来预测。损失函数仅基于边界条件计算,网络输出自动满足齐次Helmholtz方程。 与已有方法相比新在哪里:与传统PINNs将物理定律作为软约束(损失函数项)不同,HergNet通过网络结构本身(平面波叠加)实现了物理定律的硬约束,使输出自动满足波动方程。因此,训练仅需边界数据,无需在计算域内部采样,极大提升了计算效率和内存优势。同时,通过神经网络学习˜h函数,保证了物理量在方向空间上的连续性。 主要实验结果如何: 在6000 Hz的3D鞋盒房间声场预测中,HergNet预测结果与解析解在实部、虚部上吻合良好,最大边界误差0.16 Pa,相对误差<10%。 训练时间仅124秒(RTX 5090),但内存消耗是瓶颈(24.07 GB)。 频率扫描(100 Hz - 6000 Hz)显示,在中高频段,预测的声压级(SPL)和相位与解析解匹配完美,SPL偏差低于1 dB的听觉差异阈值。但在低频段(<500 Hz)误差相对增大。 计算成本随频率平方增长(Nquad, Ntrain ∝ f^2),优于体积类方法(如PINNs、FEM)的立方增长。 实际意义是什么:为房间声学、电磁学、光学等领域的波场预测提供了一种快速、可扩展的深度学习工具,特别适合需要反复进行参数化仿真(如改变频率、边界条件)的场景,有望在虚拟现实、建筑声学设计中得到应用。 主要局限性是什么: 低频性能下降:在低频段(波动问题接近扩散问题时),平面波叠加表示变得低效,导致误差增大。 内存瓶颈:训练时,所有训练点需要与所有平面波参数交互,导致内存消耗以O(f^4)增长,成为高频下的主要限制。 对比基线有限:实验主要与自实现的解析解对比,未与其他主流数值方法(如FEM、BEM)或最新神经网络方法进行直接性能(速度、精度)对比。 🏗️ 模型架构 HergNet的整体架构如图1所示,其设计核心是将数学表示(Herglotz波函数)直接转化为神经网络结构。 ...

2026-04-29

HiFi-HARP: A High-Fidelity 7th-Order Ambisonic Room Impulse Response Dataset

📄 HiFi-HARP: A High-Fidelity 7th-Order Ambisonic Room Impulse Response Dataset #数据集 #混合仿真 #麦克风阵列 #空间音频 #声源定位 ✅ 7.5/10 | 前25% | #数据集 | #混合仿真 | #麦克风阵列 #空间音频 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Shivam Saini(Leibniz University Hannover, Institut für Kommunikationstechnik) 通讯作者:未说明 作者列表:Shivam Saini(Leibniz University Hannover, Institut für Kommunikationstechnik)、Jürgen Peissig(Leibniz University Hannover, Institut für Kommunikationstechnik) 💡 毒舌点评 亮点:论文的亮点在于其“集大成”的工程实现——将高阶Ambisonics(7阶)、混合声学仿真(低频波导+高频射线追踪)以及来自3D-FRONT的复杂室内场景这三个关键要素成功融合并规模化,形成了一个在技术规格上超越以往同类数据集(如HARP、GWA)的资源。短板:主要短板在于其“高保真”声称部分依赖于文本语义的材料映射(图2,图3),这引入了一个与真实世界材料属性不确定性的间隙,使得数据集的保真度上限可能受限于该映射方法的精度,而非物理仿真本身的极限。 📌 核心摘要 解决的问题:为了解决现有大规模房间脉冲响应(RIR)数据集要么Ambisonic阶数低(如FOA),要么声学仿真方法单一(仅几何声学或仅波导),要么房间场景过于简单(鞋盒模型)的问题,本论文旨在创建一个结合了高阶、高保真仿真和复杂真实场景的大规模RIR数据集。 方法核心:方法核心是构建一个混合声学仿真流水线:对900 Hz以下的低频采用基于有限差分时域(FDTD)的波导仿真,以准确模拟衍射等波动现象;对900 Hz以上的高频采用射线追踪方法进行高效仿真。数据基于3D-FRONT数据库中复杂、带家具的室内场景,并通过基于语义标签的文本分类方法为物体表面分配频率相关的声学吸收系数。最终将原始RIR编码为AmbiX格式(ACN)的7阶Ambisonic表示。 相比已有方法新在哪里:HiFi-HARP是首个将7阶高阶Ambisonics与混合波导-几何声学仿真相结合,并应用于大规模复杂室内场景的数据集。相比仅用图像源法(ISM)的HARP数据集,它引入了更精确的低频波动效应;相比仅用几何仿真的SoundSpaces,它提供了更高的Ambisonic阶数和低频精度;相比单通道的GWA数据集,它提供了完整的高阶空间信息。 主要实验结果: 数据集规模与特性:包含超过10万个7阶RIR,场景覆盖约2000个复杂室内空间,RT60主要分布在0.2-0.8秒,中频吸收系数在0.2-0.9之间。 下游任务验证: T60估计(表II):使用HiFi-HARP数据对测量数据增强训练后,模型在真实测试集上的性能显著提升,Pearson相关系数(ρ)从0.85提高到0.92,MSE从0.018降至0.012。 DOA估计(表III):训练数据的Ambisonic阶数越高,DOA估计模型在真实BRIR测试集上的性能越好。使用7阶数据训练的模型达到最低MSE(1.93)和最高的Pearson相关系数(0.90)。 仿真验证:与商业仿真软件Treble及实验室测量对比(图2,图3),显示在不同频带存在一定误差,主要归因于材料属性映射的不精确。 实际意义:为声场录制、空间音频渲染(VR/AR)、声源定位、去混响、房间声学参数估计等领域的数据驱动算法研究和基准测试提供了前所未有的高质量、大规模、多样化的训练和评估资源。 主要局限性:局限性包括:1)材料属性通过文本语义映射获取,与真实测量存在偏差;2)所有场景和声源均为静态,不包含动态变化;3)64通道球形麦克风阵列是一个物理近似,在900 Hz以上存在空间混叠;4)未建模家具的细微结构和房间内人员的存在。 🏗️ 模型架构 本文的核心贡献是一个数据生成流水线(Pipeline),而非一个用于推理的端到端模型。该流水线的主要架构和流程如下: ...

2026-04-29

ICASSP 2026 - 空间音频 论文列表

ICASSP 2026 - 空间音频 共 31 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Spatial-CLAP: Learning Spatially-Aware Audio–Text Embeddings 8.5分 前25% 🥈 3D Mesh Grid Room Impulse Responses Measured with A Linear M 8.3分 前25% 🥉 Regularized Inverse Filter Design for Rigid Spherical Microp 8.0分 前25% 4. Time-Domain Synthesis of Virtual Sound Source Within Persona 8.0分 前25% 5. Text2Move: Text-To-Moving Sound Generation via Trajectory Pr 8.0分 前25% 6. Generating Moving 3d Soundscapes with Latent Diffusion Model 7.5分 前25% 7. Coupling Acoustic Geometry and Visual Semantics for Robust D 7.5分 前25% 8. Qastanet: A DNN-Based Quality Metric for Spatial Audio 7.5分 前50% 9. Differentiable Grouped Feedback Delay Networks for Learning 7.5分 前25% 10. Denoising Of Stochastic Ray Tracing Room Impulse Responses 7.5分 前25% 11. Sparse-View Visual-Acoustic Latent Learning for Novel-View A 7.5分 前25% 12. Reconstruction of Spherical Sound Source Radiation Character 7.5分 前25% 13. A Learning-Based Automotive Sound Field Reproduction Method 7.5分 前25% 14. A Data-Driven Framework for Personal Sound Zone Control Addr 7.5分 前25% 15. Personal Sound Zones with Flexible Bright Zone Control 7.5分 前25% 16. Natural Language to Spatial Audio Parameters: Lightweight De 7.5分 前25% 17. Lightweight Implicit Neural Network for Binaural Audio Synth 7.0分 前25% 18. Perceptual Loss Optimized HRTF Personalization in Spherical 7.0分 前25% 19. Individualize the HRTF Neural Field Using Anthropometric Par 7.0分 前25% 20. Decorrelation-Enhanced Multiband Subband Adaptive Filtering 7.0分 前50% 21. On the Design of Higher-Order Time-Intensity Microphone Arra 7.0分 前25% 22. Deep Spatial Clue Informed Ambisonic Encoding for Irregular 7.0分 前25% 23. HergNet: A Fast Neural Surrogate Model for Sound Field Predi 7.0分 前25% 24. AnyRIR: Robust Non-Intrusive Room Impulse Response Estimatio 7.0分 前25% 25. SIREN: Spatially-Informed Reconstruction of Binaural Audio w 7.0分 前25% 26. Frequency-Independent Ambisonics Upscaling Using Deep Learni 6.5分 前50% 27. Exterior Sound Field Estimation Based on Physics-Constrained 6.5分 前25% 28. Mixture-of-Experts Framework for Field-of-View Enhanced Sign 6.5分 前50% 29. Generating Localized Audible Zones Using a Single-Channel Pa 6.5分 前50% 30. Continuation Method for Feedback Delay Network Modal Decompo 6.5分 前50% 31. Secondary Source Placement for Sound Field Control Based on 6.0分 前25% 📋 论文详情 🥇 Spatial-CLAP: Learning Spatially-Aware Audio–Text Embeddings for Multi-Source Conditions 🔥 8.5/10 | 前25% | #空间音频 | #对比学习 | #声源定位 #跨模态 ...

2026-04-29

Individualize the HRTF Neural Field Using Anthropometric Parameters Weighted by Direction-Attention

📄 Individualize the HRTF Neural Field Using Anthropometric Parameters Weighted by Direction-Attention #空间音频 #个性化建模 #HRTF #条件神经场 ✅ 7.0/10 | 前25% | #空间音频 | #条件神经场 | #个性化建模 #HRTF 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yuhang Xiao(武汉大学计算机学院,国家多媒体软件工程研究中心) 通讯作者:Xiaochen Wang(武汉大学计算机学院,国家多媒体软件工程研究中心) 作者列表:Yuhang Xiao(武汉大学计算机学院,国家多媒体软件工程研究中心)、Xiaochen Wang(武汉大学计算机学院,国家多媒体软件工程研究中心)、Chenhao Hu(小米公司)、XueYang Lv(小米公司)、Miaomiao Li(武汉大学计算机学院,国家多媒体软件工程研究中心)、Yulin Wu(江汉大学人工智能学院)、Jiajun Yuan(武汉大学计算机学院,国家多媒体软件工程研究中心) 💡 毒舌点评 该论文的亮点在于其系统性:从方向依赖性的物理直觉出发,设计了“方向注意力编码器”并系统比较了多种条件神经场的映射方式(FiLM、HyperNet、Cat),实验设计环环相扣,说服力较强。然而,其短板同样明显:作为一个强调“可复现”和“实际应用”的工作,却在论文中完全缺失了代码、模型、关键训练细节的公开计划,这与其推动“新范式”的雄心形成了鲜明对比,实用性大打折扣。 📌 核心摘要 要解决什么问题:解决传统HRTF(头部相关传递函数)个性化方法(测量、声学仿真)成本高、难部署的问题,以及现有机器学习方法在HRTF高维数据建模上精度与规模的权衡难题。 方法核心是什么:提出一个条件神经场(NeRF)框架。核心是设计一个方向注意力编码器,根据声源方向(方位角、仰角)为不同的人体测量参数分配不同的注意力权重,然后将其编码为个人特征;再通过一个特征线性调制(FiLM)网络,将个人特征逐层注入到作为骨干网络的HRTF NeRF中,从而调制生成个性化的HRTF频谱。 与已有方法相比新在哪里:1) 范式迁移:首次将条件神经场技术从HRTF的空间插值任务系统性地拓展到个性化HRTF生成任务。2) 方向感知编码:引入了方向注意力机制,考虑了人体测量参数对不同方向HRTF影响的差异性。3) 系统化比较与优化:对条件神经场中的编码(硬/软权重、超网络)和映射(FiLM、HyperNet、拼接)方式进行了全面的消融实验对比,确定了最优组合。 主要实验结果如何:在HUTUBS和CIPIC两个数据库上,所提最佳组合(硬权重+FiLM+冻结骨干两阶段训练)取得了优于对比方法的客观性能(以对数谱失真LSD衡量)。关键结果对比如下: 数据库 最佳方法 (Proposed) 最佳基线方法 LSD (Proposed) LSD (最佳基线) HUTUBS 硬权重+FiLM LightGBM-Transformer 4.611 dB 4.690 dB CIPIC 硬权重+FiLM SHT-VGG 5.066 dB 5.310 dB 论文未提供主观听感实验结果。 实际意义是什么:为个性化空间音频渲染提供了一种新的、潜在更高效准确的建模思路。该框架仅需少量人体测量参数即可生成未知个体的HRTF,若能实现开源部署,将有助于降低高品质个性化空间音频应用的门槛。 主要局限性是什么:1) 评估局限:仅使用客观指标LSD进行评估,缺乏主观听感测试(如定位准确度、音质偏好),无法全面验证方法的实际听觉效果。2) 复现性缺失:论文未提供代码、模型权重及关键训练细节,严重阻碍了学术界的验证与应用。3) 创新深度:核心编码器和调制器的结构相对简单,更侧重于将现有技术进行有效组合与应用验证。 🏗️ 模型架构 论文的整体架构如图1所示,主要由三大部分组成:编码器(Encoder)、调制器(Modulator)和骨干网络(Backbone)。 ...

2026-04-29

Lightweight Implicit Neural Network for Binaural Audio Synthesis

📄 Lightweight Implicit Neural Network for Binaural Audio Synthesis #空间音频 #隐式神经网络 #轻量模型 #端到端 #信号处理 ✅ 7.0/10 | 前25% | #空间音频 | #隐式神经网络 | #轻量模型 #端到端 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Xikun Lu(华东师范大学 上海市人工智能教育重点实验室,华东师范大学 计算机科学与技术学院) 通讯作者:Jinqiu Sang(华东师范大学 计算机科学与技术学院,邮箱:jqsang@mail.ecnu.edu.cn) 作者列表:Xikun Lu(华东师范大学 上海市人工智能教育重点实验室,华东师范大学 计算机科学与技术学院)、Fang Liu(未说明)、Weizhi Shi(贵州工业职业技术学院 大数据与信息工程系)、Jinqiu Sang(华东师范大学 计算机科学与技术学院) 💡 毒舌点评 亮点:巧妙地将隐式神经表征(INR)从连续场重建迁移到了动态的频谱校正任务上,用一个紧凑的MLP(0.15M参数)就建模了复杂的时变声学传递函数,这种“小而美”的设计思路值得肯定。 短板:消融实验止步于“有/无”模块和编码器的比较,未能进一步剖析隐式网络本身的关键超参数(如层数、宽度、频率编码维数)对性能的敏感性,使得最优架构的选择缺乏更深入的理论或经验支撑。 📌 核心摘要 问题:高保真双耳音频合成(从单声道生成具有空间感的立体声)是VR/AR等沉浸式体验的关键,但现有基于深度学习的方法模型庞大,难以在计算资源有限的边缘设备上实时运行。 方法核心:提出一个名为Lite-INN的两阶段轻量级框架。第一阶段使用时间域翘曲(TDW)模块生成初步的双耳信号以近似双耳时间差(ITD);第二阶段将初步信号转换到时频域,并通过一个新颖的隐式双耳校正器(IBC)模块,将每个时频点的增益和相位校正建模为空间位置、耳朵索引、频率和时间坐标的连续函数,从而进行精细的频谱修正。 新意:将频谱校正任务重新定义为隐式神经表示问题,使用一个小型多层感知机(MLP)直接预测每个时频bin的复数增益。这与之前基于卷积或注意力机制的方法不同,能以极低的参数量(0.15M)建模复杂的动态声学特性。 主要实验结果:在Binaural Speech数据集上,Lite-INN相比最轻量的基线NFS,在参数量上减少72.7%(从0.55M到0.15M),计算量(MACs)降低21.5%(从3.40G到2.67G)。主观MOS测试表明,其感知质量(MOS-Q/S/Sim)与最高的WaveNet基线无统计显著差异(p > 0.05),且显著优于NFS和DPATFNet(p < 0.05)。其客观指标如Wave-ℓ2(0.167)、IPD-ℓ2(1.233)处于竞争力水平。 模型 参数量(M) ↓ MACs(G) ↓ Wave-ℓ2 ↓ IPD-ℓ2 ↓ NFS [13] 0.55 3.400 0.172 1.250 DPATFNet [14] 2.42 15.64 0.148 1.020 Lite-INN (Ours) 0.15 2.670 0.167 1.233 实际意义:成功在合成质量与计算效率之间取得了良好平衡,其极小的模型尺寸(0.15M参数)和低计算需求(RTF 0.121)使其非常适合部署在手机、耳机等边缘设备上,实现实时的高保真空间音频渲染。 主要局限性:隐式校正器(IBC)对动态场景(如声源快速移动)的建模能力依赖于输入的连续坐标编码,其泛化能力和对未见轨迹的表现未经充分验证。此外,消融实验未探讨IBC内部网络结构(如深度、宽度)的影响。 🏗️ 模型架构 本文提出的Lite-INN是一个两阶段的端到端框架,目标是从单声道音频x和随时间变化的声源位姿P(t)合成双耳音频y。 ...

2026-04-29

Matching Reverberant Speech Through Learned Acoustic Embeddings

📄 Matching Reverberant Speech Through Learned Acoustic Embeddings #音频生成 #信号处理 #空间音频 #实时处理 🔥 8.0/10 | 前25% | #音频生成 | #信号处理 | #空间音频 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Philipp Götz(International Audio Laboratories Erlangen†,Germany) 通讯作者:未说明 作者列表:Philipp Götz(International Audio Laboratories Erlangen†,Germany)、Gloria Dal Santo(Acoustics Lab, Dpt. of Information and Communications Engineering, Aalto University,Finland)、Sebastian J. Schlecht(Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU),Germany)、Vesa Välimäki(Acoustics Lab, Dpt. of Information and Communications Engineering, Aalto University,Finland)、Emanuël A. P. Habets(International Audio Laboratories Erlangen†,Germany) †International Audio Laboratories Erlangen是Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU)和Fraunhofer IIS的联合机构。 💡 毒舌点评 亮点在于将混响参数盲估计任务巧妙重构为“信号匹配”问题,并利用一个改进的、可微分的FDN结构(尤其是可学习的正交反馈矩阵)显著提升了合成混响在声学参数(如T30)上的准确性。然而,论文的短板在于其对混响早期反射模式的建模能力有限,且当前评估主要局限于语音信号,对音乐等激励源下的泛化能力以及噪声鲁棒性未做充分验证。 ...

2026-04-29

Mixture-of-Experts Framework for Field-of-View Enhanced Signal-Dependent Binauralization of Moving Talkers

📄 Mixture-of-Experts Framework for Field-of-View Enhanced Signal-Dependent Binauralization of Moving Talkers #空间音频 #波束成形 #信号处理 #移动声源跟踪 ✅ 6.5/10 | 前50% | #空间音频 | #波束成形 #信号处理 | #波束成形 #信号处理 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Manan Mittal(Stony Brook University, Meta Reality Labs Research) 通讯作者:未说明 作者列表:Manan Mittal(Stony Brook University, Meta Reality Labs Research)、Thomas Deppisch(Chalmers University of Technology, Meta Reality Labs Research)、Joseph Forrer(Meta Reality Labs Research)、Chris Le Sueur(Meta Reality Labs Research)、Zamir Ben-Hur(Meta Reality Labs Research)、David Lou Alon(Meta Reality Labs Research)、Daniel D.E. Wong(Meta Reality Labs Research) 💡 毒舌点评 这篇论文巧妙地将混合专家模型应用于双耳渲染,实现了无需显式声源定位的动态跟踪与增强,思路颇具启发性。然而,其在真实世界的实验规模较小、对比基线相对传统,且全文未提供任何开源代码或复现细节,大大削弱了其作为方法论贡献的可验证性和可复用性。 ...

2026-04-29

Multimodal Room Impulse Response Generation Through Latent Rectified Flow Matching

📄 Multimodal Room Impulse Response Generation Through Latent Rectified Flow Matching #音频生成 #流匹配 #空间音频 ✅ 7.5/10 | 前25% | #音频生成 | #流匹配 | #空间音频 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Ali Vosoughi(University of Rochester) 通讯作者:未说明(根据贡献标注†,Qihui Yang和Nathan Paek可能为通讯作者,但论文未明确标注) 作者列表:Ali Vosoughi(University of Rochester)、Yongyi Zang(Smule Labs)、Qihui Yang(University of California, San Diego)、Nathan Paek(Stanford University)、Randal Leistikow(Smule Labs)、Chenliang Xu(University of Rochester)。所有作者贡献均等标注为‡。 💡 毒舌点评 这篇工作巧妙地用“两阶段法”绕开了RIR领域的两大痛点:先让VAE学会了“脑补”高频,再用流匹配模型学会了“听懂人话”。其核心创新(文本条件生成全频带RIR)和扎实的实验(RT60误差从-37%跃升至8.8%)令人印象深刻,是近期RIR生成领域的一个亮点。但“caption-then-rewrite”流程依赖一堆闭源模型(VLM, LLM)来生成训练数据,这种“用魔法打败魔法”的做法虽然有效,却可能成为复现和分析的黑箱,且最终模型效果的上限恐怕被合成数据的质量牢牢锁死。 📌 核心摘要 问题:现有房间脉冲响应(RIR)生成方法面临两大核心挑战:一是缺乏高质量的全频带(如48kHz)RIR训练数据集;二是现有模型无法从多样化的输入(尤其是自然语言)中生成声学准确的RIR,限制了其在创意和实际应用中的使用。 方法核心:本文提出了一个名为PromptReverb的两阶段生成框架。第一阶段:训练一个β-变分自编码器(VAE),能将带限RIR上采样至全频带48kHz质量。第二阶段:构建一个基于rectified flow matching的条件扩散Transformer(DiT),它以VAE编码器的潜在表示为目标,根据文本描述生成相应的RIR。 与已有方法相比新在哪里:这是首个能够从自由形式的自然语言文本描述合成完整48kHz RIR的方法。它无需360°全景图像、深度估计、三维几何模型或专业声学参数。通过“caption-then-rewrite”流程,利用视觉语言模型和大语言模型自动生成大规模、多样化的文本-RIR训练对。 主要实验结果:在包含1957个测试样本的评估中,PromptReverb的XL模型在长文本条件下实现了8.8%的平均RT60误差,而基线方法Image2Reverb的误差为-37%(严重低估混响时间)。在主观听感评估中,PromptReverb在混响质量和文本匹配度两个维度上均优于基线。 关键结果对比表(来自论文表1): Error Type Baseline [7] XL, Long XL, Short L, Long L, Short B, Long B, Short S, Long S, Short Mean Error (%) -37.0 8.8 4.8 24.6 26.0 30.2 27.7 43.4 21.9 实际意义:为虚拟现实(VR)、增强现实(AR)、游戏音频、建筑声学模拟和音频制作等领域提供了一种灵活、高质量的RIR合成工具,用户可通过直观的文本描述定制所需混响效果,降低了专业门槛。 主要局限性:(1) 模型性能的上限可能受限于训练数据的质量和多样性,其中大量数据来自合成(PyRoomAcoustics)或历史录音,未必完全覆盖真实世界的复杂声学场景。(2) “caption-then-rewrite”流程本身依赖于多个外部模型,其质量直接影响最终生成效果。(3) 论文未提供代码、模型权重或数据集,复现依赖较大。 🏗️ 模型架构 PromptReverb的架构分为三个核心部分(如图1所示): ...

2026-04-29

Natural Language to Spatial Audio Parameters: Lightweight Deterministic Rendering for Creative Authoring

📄 Natural Language to Spatial Audio Parameters: Lightweight Deterministic Rendering for Creative Authoring #空间音频 #回归模型 #多语言 #跨模态 #工业应用 ✅ 7.5/10 | 前25% | #空间音频 | #回归模型 | #多语言 #跨模态 学术质量 5.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Seungryeol Paik(首尔大学 情报与智能学系) 通讯作者:Kyogu Lee(首尔大学 情报与智能学系 / 人工智能跨学科项目 / 人工智能研究所) 作者列表:Seungryeol Paik(首尔大学 情报与智能学系)、Kyogu Lee(首尔大学 情报与智能学系;首尔大学 人工智能跨学科项目;首尔大学 人工智能研究所) 💡 毒舌点评 亮点: 论文精准地瞄准了专业音频创作工具“学习曲线陡”与生成式模型“输出不可控”之间的鸿沟,提出了一个轻量、确定性、参数可编辑的回归框架,思路清晰,工程实用价值高。 短板: 核心指标33.2°的角误差在精确定位要求高的场景下可能仍显不足,且对于“比喻性”描述(如“幽灵般的低语”)的处理效果极差(>90° AE),暴露了当前文本嵌入模型在抽象语义与几何空间映射上的根本局限。 📌 核心摘要 要解决的问题: 传统空间音频参数控制复杂,学习门槛高;近期基于生成模型的方法虽然降低了门槛,但输出随机、不可复现、难以编辑,无法满足专业创作工作流的需求。 方法核心: 提出一个轻量级框架,使用经过微调的多语言MiniLM编码器,将自然语言(英语、韩语)直接回归为8维确定性空间音频参数向量(方位角正弦/余弦、仰角、距离、扩展、混响比、增益、房间深度),再通过标准DSP算法(如VBAP/HRTF)进行渲染。 与已有方法相比新在哪里: 与依赖大规模随机生成模型(如Diff-SAGe)的方法不同,本方法采用参数回归范式,实现了输出确定性、参数可编辑、低延迟(<100ms CPU)。相比简单的基于规则的基线,其精度更高,且具备语义理解能力。 主要实验结果: 在自建的多语言数据集上,模型达到平均33.2°的角误差(AE),显著优于基于规则的基线(71.0°)和SBERT/E5基线(51.8-76.8°)。消融实验验证了角度损失(Ldir)和自适应边缘(m)的有效性。在25人参与的主观听力测试中,本模型在“文本-空间匹配度”、“定位清晰度”和“自然度”上均显著优于基线(p < 0.001)。在特定OOD测试中,数值提示表现好(19.9° AE),比喻性提示表现差(>90° AE)。 方法 输入 AE (°) ↓ MOS(匹配度)↑ FoleySpace [11] 视频+文本 45.0^1 3.81^3 Diff-SAGe [6] 文本 37.9^1 N/A 本文(Proposed) 文本 33.2 4.12 规则基线 文本 71.0 3.06 E5 encoder基线 文本 38.2 N/A ^1 Diff-SAGe报告的为主观方向感知误差,其他为算法计算AE。^3 FoleySpace的MOS评分协议不同。 ...

2026-04-29