SIREN: Spatially-Informed Reconstruction of Binaural Audio with Vision

📄 SIREN: Spatially-Informed Reconstruction of Binaural Audio with Vision #空间音频 #音视频 #Transformer ✅ 7.0/10 | 前25% | #空间音频 | #音视频 | #Transformer 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Mingyeong Song (Ewha Womans University, Seoul, Korea),Seoyeon Ko (Ewha Womans University, Seoul, Korea) (论文标注两人贡献相等) 通讯作者:未说明 作者列表:Mingyeong Song (Ewha Womans University, Seoul, Korea), Seoyeon Ko (Ewha Womans University, Seoul, Korea), Junhyug Noh (Ewha Womans University, Seoul, Korea) 💡 毒舌点评 SIREN巧妙地将Transformer的注意力机制“一分为二”,用作左右声道的空间特征调制器,思路清晰且免去了手工设计掩模的麻烦,是本文最亮眼的工程巧思。然而,论文的论证主要停留在客观指标的“分数游戏”上,缺乏一个关键环节:听众到底能不能真的听出区别?没有主观MOS测试,很难断言那些STFT或相位距离的提升能带来感知上的空间感增强。此外,方法的“自信融合”听起来很美,但其核心假设(单声道一致性和相位一致性)在复杂动态场景下的鲁棒性未见深入讨论。 ...

2026-04-29

SIRUP: A Diffusion-Based Virtual Upmixer of Steering Vectors for Highly-Directive Spatialization with First-Order Ambisonics

📄 SIRUP: A Diffusion-Based Virtual Upmixer of Steering Vectors for Highly-Directive Spatialization with First-Order Ambisonics #空间音频 #声源定位 #扩散模型 #波束成形 #麦克风阵列 ✅ 7.0/10 | 前25% | #声源定位 | #扩散模型 | #空间音频 #波束成形 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Emilio Picard(法国索邦大学,日本RIKEN高级智能项目中心) 通讯作者:未说明 作者列表:Emilio Picard(法国索邦大学,日本RIKEN高级智能项目中心)、Diego Di Carlo(日本RIKEN高级智能项目中心)、Aditya Arie Nugraha(日本RIKEN高级智能项目中心)、Mathieu Fontaine(法国巴黎电信学院LTCI实验室,日本RIKEN高级智能项目中心)、Kazuyoshi Yoshii(日本京都大学工程研究生院,日本RIKEN高级智能项目中心) 💡 毒舌点评 亮点:将图像领域的潜在扩散模型“上采样”思路巧妙地移植到空间音频的波束成形向量超分辨率问题上,是一个非常具体且聪明的类比应用,实验结果也清晰展示了在狭窄波束和低旁瓣方面的显著提升。短板:整篇论文的验证完全依赖于模拟数据,对于真实世界中复杂的声场、阵列误差和未知噪声的鲁棒性只字未提,这极大地限制了其结论的说服力和实际应用价值的判断。 📌 核心摘要 问题:现有的高空间分辨率音频系统(如高阶Ambisonics, HOA)需要昂贵的麦克风阵列。常见的一阶Ambisonics(FOA)系统空间分辨率低,导致声源定位不精确,波束成形效果差。传统上混方法(先估计声源参数再渲染)会误差传播。 方法:本文提出SIRUP,一种基于潜在扩散模型的波束成形向量(SV)虚拟上混方法。其核心是直接学习将低阶FOA SV映射到高阶HOA SV的潜在空间。具体分为两步:首先,用变分自编码器(VAE)学习HOA SV的紧凑潜在表示;然后,训练一个以FOA SV为条件的扩散模型,在该潜在空间中生成高阶SV的嵌入。 创新:与传统“估计-渲染”级联方法不同,SIRUP直接操作和超分辨率波束成形向量本身,避免了中间参数估计误差的传播。它利用扩散模型在数据分布上的强大生成能力,学习FOA与HOA SV之间的复杂非线性映射。 结果:实验在模拟房间环境中进行。与FOA基线相比,SIRUP上混后的SV在声源定位(DOA误差)、空间滤波质量(-3dB波束宽度平均提升+10°,旁瓣抑制-9dB)和双声源语音分离(SIR,SAR等指标)上均取得显著改进,性能接近真实HOA系统。关键数据见表1与表2。 意义:为低成本FOA设备提供了一种软件方式,使其能够虚拟达到接近昂贵HOA设备的空间分析和渲染性能,对空间音频应用、机器人听觉等有潜在价值。 局限:所有实验基于模拟数据,缺乏真实世界复杂环境的验证;混响增大时,相对于HOA基线的优势减小;模型目前仅适用于单声源SV估计场景。 🏗️ 模型架构 SIRUP模型是一个条件潜在扩散模型,旨在将M通道的FOA SV(估计值或代数值)上混为M‘通道(M‘>M)的HOA SV。其整体流程分为训练和推理两个阶段,核心组件包括变分自编码器(VAE) 和潜在扩散模型(LDM)。 ...

2026-04-29

SoundCompass: Navigating Target Sound Extraction with Effective Directional Clue Integration in Complex Acoustic Scenes

📄 SoundCompass: Navigating Target Sound Extraction with Effective Directional Clue Integration in Complex Acoustic Scenes #语音分离 #麦克风阵列 #信号处理 #多通道 #空间音频 ✅ 7.5/10 | 前25% | #语音分离 | #麦克风阵列 | #信号处理 #多通道 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Dayun Choi(韩国科学技术院电气工程学院) 通讯作者:Jung-Woo Choi(韩国科学技术院电气工程学院) 作者列表:Dayun Choi(韩国科学技术院电气工程学院)、Jung-Woo Choi(韩国科学技术院电气工程学院) 💡 毒舌点评 论文亮点在于将球谐函数(SH)这种连续、旋转不变的表示与精心设计的SPIN模块相结合,优雅地解决了传统DoA编码的离散化和信息损失问题,理论动机非常扎实。然而,所有实验都在重新生成的静态声源场景(gpuRIR)上进行,虽然控制了变量,但削弱了对“复杂声学场景”中动态性和真实混响的验证说服力,这让其声称的“鲁棒性”略显成色不足。 📌 核心摘要 本文旨在解决复杂声学场景中,现有基于到达方向(DoA)的目标声源提取(TSE)方法因使用手工特征或离散编码而导致的精细空间信息丢失和适应性受限问题。核心方法是提出SoundCompass框架,其包含三个关键组件:1)光谱成对交互(SPIN)模块,在复数谱图域捕获所有通道间的成对空间相关性,保留完整的空间信息;2)球谐函数(SH)嵌入,作为DoA线索的连续、无离散化的表示,描述球面上的位置;3)基于推理链(CoI)的迭代细化策略,将前一阶段估计的声源时间激活与DoA线索递归融合,逐步优化提取结果。与已有方法相比,新在提出了一套端到端、保留连续空间信息的线索集成方案,并创新性地将迭代细化引入基于DoA的TSE。实验在重新生成的ASA2数据集上进行,消融研究证明了SPIN、SH和CoI的有效性。与基线方法(如SSDQ, DSENet)相比,SoundCompass在信噪比改善(SNRi)和空间一致性(∆ILD, ∆IPD, ∆ITD)上均取得更优结果,同时保持了较低的计算复杂度。实际意义在于为助听器、AR/VR等应用提供了更精准、高效的声音提取方案。主要局限性是实验验证依赖静态声源的模拟数据集,对动态场景和更复杂真实环境的泛化能力有待进一步验证。 🏗️ 模型架构 模型整体架构(图1(a))基于DeepASA骨干网络,是一个端到端的多通道声源分离框架。 输入与特征提取:输入为M通道混合音频,经短时傅里叶变换(STFT,使用可学习高斯窗)得到形状为2M×T×F的复数谱图。通过一个2D卷积编码器,将通道维度从2M映射到D,提取包含局部时空模式的空间特征。 方向线索融合模块:这是核心创新所在(图1(b))。该模块接收编码器特征和DoA线索(θ, ϕ)。 SPIN模块:首先,将多通道复数谱图的正弦/余弦分量进行成对相乘,生成形状为(2M)^2×T×F的特征,显式建模所有通道间的空间相关性。 子带划分:采用基于12-TET音乐音阶的重叠子带划分(K=31),在每个子带内独立进行后续操作,以捕获频率相关的空间线索。 SH编码与融合:DoA线索被编码为5阶球谐函数(SH)的实部与虚部堆叠,得到维度为2(N+1)^2=72的嵌入向量。在每个子带内,通过一个FiLM层(生成缩放γ和偏移β参数)将SH嵌入与SPIN特征融合,并加入残差连接。 特征聚合与解码:融合后的特征送入多个特征聚合(FA)块,沿频谱和时间维度分别应用多头自注意力和Mamba前馈网络,进行目标源的特征分离。最后,两个并行的音频解码器(结构相同)将特征维度从D恢复到2M,分别重建直达声和混响,经逆STFT(iSTFT)得到最终波形。 迭代细化(CoI):如图2所示,第一阶段的输出被送入一个声音事件检测(SED)解码器,预测帧级二值时间掩码。该掩码与原始SH嵌入结合,形成时变方向线索,线性插值后注入到第二个相同的TSE阶段,实现迭代优化。 图1:(a) SoundCompass整体架构图,展示了从多通道混合输入到最终目标波形提取的完整流程,核心是融合模块。(b) 融合模块内部细节,展示了SPIN如何处理复数谱图,以及如何与SH编码的方向线索在K个子带内通过FiLM层融合。 ...

2026-04-29

Sparse-View Visual-Acoustic Latent Learning for Novel-View Audio Synthesis

📄 Sparse-View Visual-Acoustic Latent Learning for Novel-View Audio Synthesis #空间音频 #多模态模型 #自监督学习 #音视频 ✅ 7.5/10 | 前25% | #空间音频 | #多模态模型 | #自监督学习 #音视频 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yimu Pan (†Dolby Laboratories, ⋆宾夕法尼亚州立大学) 通讯作者:未说明 作者列表:Yimu Pan (†Dolby Laboratories, ⋆宾夕法尼亚州立大学), James Z. Wang (†宾夕法尼亚州立大学), Lie Lu (⋆Dolby Laboratories) 💡 毒舌点评 本文巧妙地将视觉几何表示(Plücker rays)引入声学特征学习,通过Transformer的潜空间注意力机制实现了“看声辨源”,在无需显式标注的情况下提升了稀疏视角合成的空间准确性。然而,其核心音频合成模块直接“拿来主义”ViGAS,虽然保证了公平对比,但也让人怀疑如果换成更强的端到端合成器,论文的创新性是否会被进一步稀释。 📌 核心摘要 问题:现有新视角音频合成(NVAS)方法大多依赖密集场景表示(如全景图)或需要显式的声源位置信息,这些条件在实际应用中难以获取且成本高昂。 方法核心:提出一个名为NVA-Former的视觉-声学Transformer。它以稀疏多视角的图像、相机位姿和音频作为输入,通过视觉分词器(利用Plücker射线嵌入)和声学分词器提取特征,并在Transformer的潜空间中联合处理。模型同时输出目标视角的视觉特征和声学特征,分别用于重建新视角图像和合成双耳音频。 创新点:与依赖声源位置的稀疏方法(如ViGAS)或需要密集输入的稠密方法(如AV-Cloud)不同,本文的方法在潜空间中通过共享的相机位姿信息,隐式地建立跨视角、跨模态的3D关联,从而无需声源位置信息。 实验结果:在真实世界数据集Replay-NVAS和合成数据集SoundSpaces-NVAS上,使用两个输入视角时,NVA-Former在衡量空间准确性的LRE指标(Replay-NVAS:0.671 vs ViGAS 0.800/1.112)和感知质量CDPAM指标(0.132 vs ViGAS 0.383/0.352)上均显著优于最强基线ViGAS,同时保持有竞争力的MAG和RTE性能。消融实验表明,视觉监督和深度监督对性能至关重要。 实际意义:显著降低了现实世界数据采集的门槛,使得仅用少量同步相机-麦克风对即可学习3D声学场景表示,为AR/XR等应用提供了一种更实用的NVAS解决方案。 局限性:模型依赖于预训练的视觉Transformer(LVSM)权重以获得良好的3D视觉理解能力。其核心创新点在于声学特征的学习,而最终的音频合成模块直接复用了先前工作(ViGAS),这可能限制了对其所学声学特征上限的完整评估。 🏗️ 模型架构 论文提出的模型称为Novel-view Visual-Acoustic Transformer (NVA-Former)。其整体流程如图1所示: ...

2026-04-29

Spatial Covariance Matrix Reconstruction for Speech Enhancement in Reverberant Multi-Source Environments

📄 Spatial Covariance Matrix Reconstruction for Speech Enhancement in Reverberant Multi-Source Environments #语音增强 #麦克风阵列 #波束成形 #空间音频 #信号处理 ✅ 7.5/10 | 前25% | #语音增强 | #麦克风阵列 | #波束成形 #空间音频 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Wei Liu(武汉大学电子信息学院,早稻田大学信息、生产与系统研究生院) 通讯作者:未说明 作者列表:Wei Liu(武汉大学电子信息学院、早稻田大学信息、生产与系统研究生院),Xueqin Luo(西北工业大学CIAIC),Jilu Jin(西北工业大学CIAIC),Gongping Huang(武汉大学电子信息学院),Jingdong Chen(西北工业大学CIAIC),Jacob Benesty(魁北克大学INRS-EMT),Shoji Makino(早稻田大学信息、生产与系统研究生院) 💡 毒舌点评 这篇论文的最大亮点在于其优雅的数学建模和推导,将复杂的多源混响环境下的协方差矩阵估计问题,巧妙地转化为一个求解非负、归一化权重的凸优化问题,并给出了一个形式简洁的在线更新公式,体现了扎实的信号处理理论功底。然而,其短板也相当明显:算法高度依赖于所有声源(包括干扰源)DOA的先验知识或精确估计,这在动态的、未知的现实环境中是一个难以逾越的实用化障碍,使其更像一个在理想条件下性能优越的“实验室方法”。 📌 核心摘要 这篇论文旨在解决多通道语音增强中的一个关键挑战:在包含多个声源、混响和噪声的复杂环境中,如何准确估计观测信号的空间协方差矩阵(SCM),以支撑自适应波束成形或维纳滤波器。 其方法核心是:在每个时频点,将归一化的观测SCM建模为一组预定义的空间相干矩阵(分别对应各个声源、晚期混响和环境噪声)的线性组合,组合权重(称为“方差比”)反映了各成分对观测信号的相对贡献。通过最小化建模与观测SCM之间的Frobenius范数,并施加非负性与归一化约束,将SCM估计问题转化为权重求解问题。论文进一步推导出一种基于Kullback-Leibler散度正则化的乘性更新自适应算法,可在线高效估计这些权重。 与传统方法(如基于时频掩模的神经网络或基于方向增益的方法)相比,该方法无需复杂的离线训练或依赖阵列几何的分辨率限制,而是通过一个统一的凸优化框架显式建模所有信号成分,理论上更优雅且计算更轻量。自适应算法设计使其适用于实时处理。 主要实验结果表明:在仿真(房间尺寸8x6x3m³,T60≈300ms,4元ULA阵列)和真实录音(RealMAN数据集,三种不同混响场景,T60从398ms到1577ms)中,所提出的R-MWF方法在分段信噪比(SNRseg)、信号失真比(SDR)、短时客观可懂度(STOI)和倒谱距离(CD)等多项指标上,均显著优于近期提出的DG-MVDR和MVJD-MWF等基线方法。例如,在Case-1(T60=398ms)中,R-MWF的SDR比次优方法高出约2dB。 该方法的实际意义在于为实时多通道语音增强(如智能音箱、助听器、车载系统)提供了一种理论完备、计算高效的协方差矩阵估计新思路。其主要局限性在于模型假设所有声源的DOA已知或可通过预估获得,这在复杂动态场景中可能不成立,限制了其泛用性。 🏗️ 模型架构 本文并未提出一个传统意义上的“神经网络模型”,而是设计了一个基于信号处理模型的参数估计算法架构,其核心是空间协方差矩阵(SCM)重建模块。 整体输入输出流程: 输入:多通道时频域观测信号 y(k, n),一组预定义的空间相干矩阵(Γᵢ(n) 对应声源 i,Γ_d 对应晚期混响,I_M 对应噪声),以及前一时刻的权重估计 h(n-1)。 输出:更新后的当前时刻各成分方差比 h(n) = [ψ₁(n), ..., ψ_I(n), ψ_R(n), ψ_V(n)]^T,进而可重建观测SCM Γ_y(n) 和各成分SCM Φᵢ(n)、Φ_r(n)、Φ_v(n),最终用于计算多通道维纳滤波器(MWF)h_{W,1}(n)。 核心数据流:观测信号 y(n) → 递归更新观测SCM Φ̂_y(n) (式29) → 归一化得 Γ_y(n) (式8) → 向量化得 c(n) → 与上一时刻权重 h(n-1) 计算先验误差 e(n) (式18) → 生成乘性更新向量 r(n) (式28) → 更新权重 h(n) (式26) → 输出 h(n) 用于MWF计算和下一次迭代。 主要组件: ...

2026-04-29

Spatial-CLAP: Learning Spatially-Aware Audio–Text Embeddings for Multi-Source Conditions

📄 Spatial-CLAP: Learning Spatially-Aware Audio–Text Embeddings for Multi-Source Conditions #空间音频 #声源定位 #对比学习 #跨模态 🔥 8.5/10 | 前25% | #空间音频 | #对比学习 | #声源定位 #跨模态 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Kentaro Seki(The University of Tokyo, Keio University) 通讯作者:未明确说明 作者列表:Kentaro Seki(The University of Tokyo, Keio University)、Yuki Okamoto(未说明具体单位,根据作者顺序推测与第一作者同组)、Kouei Yamaoka(未说明具体单位)、Yuki Saito(未说明具体单位)、Shinnosuke Takamichi(The University of Tokyo, Keio University)、Hiroshi Saruwatari(The University of Tokyo, Keio University) 💡 毒舌点评 亮点在于其设计巧妙且动机清晰:通过内容感知空间编码器将空间信息与内容信息耦合,再用空间对比学习(SCL)这一“硬负例”策略显式强迫模型学习正确的空间对应关系,直击多声源建模的核心痛点。短板则在于其实验环境的“温室化”:所有音频均由模拟房间脉冲响应和AudioCaps数据集构建,DoA仅限于5个离散类别,且未与更多真实的多声源数据集或更复杂的空间编码方法(如高阶Ambisonics)进行比较,其真实世界泛化能力仍存疑。 📌 核心摘要 解决的问题:现有的音频-文本嵌入模型(如CLAP)主要针对单声道/单声源,无法有效捕捉和利用音频中的空间信息,尤其在多声源条件下,无法正确建立“什么声音在哪里”的对应关系(排列问题)。 方法核心:提出Spatial-CLAP模型。其音频编码器包含一个内容编码器(CE) 和一个内容感知空间编码器(CA-SE)。CE从单声道音频(左右声道平均)提取内容特征;CA-SE则从立体声音频中提取与内容信息耦合的空间特征。二者输出拼接后通过MLP得到最终音频嵌入,与文本嵌入在共享空间中对齐。训练策略上引入了空间对比学习(SCL),通过构造交换空间位置的音频-文本对作为困难负样本,显式监督模型学习正确的内容-空间对应关系。 新颖之处:1) 架构创新:引入内容感知的空间编码器(CA-SE),解决了先前方法中内容与空间编码分离导致的排列问题。2) 训练范式创新:首次明确提出在多声源条件下训练空间感知的音频-文本嵌入模型,并设计了SCL策略来实现这一目标。 主要实验结果:在自建的多声源评估集上,Spatial-CLAP在检索(R@1)、空间分类和内容-空间分配准确率上均显著优于基线。例如,在2-声源条件下的内容-空间分配准确率,本文方法(Ours)达到81.69%,而传统方法(Conventional)仅为48.77%。下游任务“空间音频描述”的评估(见下表)也表明,本文方法在BLEU、CIDEr等常规指标和专门设计的空间指标(DW-SBERT, Spatial desc. accuracy)上均取得最佳成绩。在未见过的3-声源混合评估中,本文方法在内容-空间分配准确率上(Ours: 41.77%)远超传统单声源训练方法(Conventional: 16.31%,接近随机猜测)。 表2:空间音频描述任务评估结果 方法 BLEU ROUGE-L METEOR CIDEr SPICE SPIDEr BERTScore SBERT DW-SBERT Spatial desc. Monaural 0.0735 0.2823 0.1789 0.1986 0.1757 0.1871 0.3769 0.5520 0.2196 0.1770 Conventional 0.1329 0.3497 0.1984 0.2075 0.2416 0.2246 0.3898 0.5026 0.3620 0.6955 Structured 0.1323 0.3487 0.1997 0.2154 0.2418 0.2286 0.3899 0.5137 0.3630 0.6461 Ours 0.1463 0.3709 0.2135 0.2553 0.2658 0.2606 0.4152 0.5564 0.4144 0.7942 Ours (w/o SCL) 0.1455 0.3685 0.2121 0.2482 0.2589 0.2536 0.4118 0.5456 0.4071 0.7922 实际意义:为构建能同时理解“什么声音”和“在哪里”的通用音频-文本表示模型奠定了基础,推动了空间音频理解、检索与生成(如空间音频描述)等下游任务的发展。 主要局限性:1) 数据局限:实验基于AudioCaps和模拟的房间脉冲响应(RIR)构建,数据集规模和场景复杂性有限。2) 空间建模简化:仅考虑了静态的、有限类别(5类)的DoA,未涉及声源移动、复杂声学环境或更高阶的空间表示(如B格式)。3) 评估局限:评估主要集中在检索和自定义的描述任务,缺乏在更通用的、公认的空间音频基准测试上的比较。 🏗️ 模型架构 Spatial-CLAP的整体架构是一个双塔模型,由音频编码器和文本编码器组成,最终输出对齐的嵌入向量。 ...

2026-04-29

StereoFoley: Object-Aware Stereo Audio Generation from Video

📄 StereoFoley: Object-Aware Stereo Audio Generation from Video #音频生成 #扩散模型 #空间音频 #跨模态 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #空间音频 #跨模态 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Tornike Karchkhadze(UC San Diego) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Tornike Karchkhadze(UC San Diego)、Kuan-Lin Chen(Apple)、Mojtaba Heydari(Apple)、Robert Henzel(Apple)、Alessandro Toso(Apple)、Mehrez Souden(Apple)、Joshua Atkins(Apple) 💡 毒舌点评 亮点:论文的核心贡献——合成数据管线,巧妙地将视频对象分割、跟踪与音频空间化规则结合,为解决小众任务的冷启动问题提供了一个系统且可扩展的“数据工厂”蓝图。短板:论文对合成数据与真实数据的差距讨论不足,且关键组件(如OVD、T2A模型)均为“内部”或“借鉴”,极大限制了结果的可复现性和社区验证。 📌 核心摘要 问题:现有视频到音频生成模型大多只能生成单声道,或无法实现基于视频中物体位置的、语义一致的立体声效。主要瓶颈在于缺乏专业的、空间信息准确的立体声V2A训练数据集。 方法核心:提出StereoFoley框架,包含一个基础立体声V2A模型和一个合成数据管线。基础模型基于潜扩散和Transformer架构。核心创新是合成数据管线,它通过视频分析、对象检测与分割、文本到音频生成及基于规则的立体声空间化(基于物体位置和尺寸),自动生成带有精确空间标签的训练数据。 新意:首次提出端到端的、对象感知的立体声视频到音频生成框架。与现有工作相比,其创新不在于新的网络架构,而在于通过精心设计的合成数据管线,系统性地解决了训练数据缺失这一根本性障碍。 实验结果: 基础性能:StereoFoley-base在VGGSound数据集上的语义一致性(IB-score 30.61)、同步性(DeSync 0.42)等指标上与SOTA模型MMAudio和Kling-Foley性能相当。 对象感知效果:在合成的VGG-obj测试集上,StereoFoley-obj的立体声对象对齐分数(BAS)为0.33,显著高于基线MMAudio(0.08)和StereoFoley-base(0.23)。在用户研究中,StereoFoley-obj的MOS评分为3.46,显著高于其他系统(p < 0.001)。 实际意义:为影视、游戏、AR/VR内容创作提供了自动化生成空间准确音效的潜在工具,并建立了首个相关基准和评估指标(BAS)。 局限性:合成数据管线依赖多个复杂的、未公开的内部模型,其生成数据的真实感和多样性可能不足。模型规模庞大(~1.1B参数),训练成本高。 🏗️ 模型架构 StereoFoley的架构基于潜扩散模型,由编码器和扩散生成基础模型两大部分组成。 ...

2026-04-29

Text2Move: Text-To-Moving Sound Generation via Trajectory Prediction and Temporal Alignment

📄 Text2Move: Text-To-Moving Sound Generation via Trajectory Prediction and Temporal Alignment #空间音频 #音频生成 #预训练 #多任务学习 #数据集 🔥 8.0/10 | 前25% | #空间音频 | #多任务学习 | #音频生成 #预训练 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yunyi Liu(悉尼大学 University of Sydney) 通讯作者:未说明 作者列表:Yunyi Liu(悉尼大学)、Shaofan Yang(杜比实验室 Dolby Laboratories)、Kai Li(杜比实验室)、Xu Li(杜比实验室) 💡 毒舌点评 论文的亮点在于其巧妙的“分解”思想,将复杂的移动声音生成问题拆解为可控的轨迹预测、单声道音频生成与基于对象的音频空间化,框架清晰且具有很好的模块化扩展性。但短板在于,为了评估轨迹预测模块,构建了一个基于线性匀速运动的简化合成数据集,这可能无法充分代表真实世界中声音轨迹的复杂性和音频的多样性,使得方法在泛化到真实场景时的有效性存疑。 📌 核心摘要 问题:现有文本驱动的空间音频生成主要聚焦于静态声源,无法有效生成具有动态空间运动的声音,限制了沉浸式体验。 方法核心:提出一种混合框架,将生成过程分解为:a) 从文本预测声源的三维时空轨迹;b) 微调一个预训练的文本到音频模型以生成与该轨迹时间对齐的单声道音频;c) 基于预测的轨迹对单声道音频进行基于对象的空间化模拟。 新意:首次在统一框架中显式地连接了文本、轨迹和音频,利用了“轨迹”作为中间表示来提供精确的空间和时间控制,区别于端到端生成FOA或双耳音频的方法。 主要结果: 文本到轨迹模型在合成测试集上表现出合理的预测能力(例如,方位角MAE为18.53°,范围感知MAE为15.52°)。 轨迹预测器和时间调整器均能实现高精度的时间对齐(起止点MAE均低于0.01秒,重叠率OLR分别为0.86和0.94)。 与仅预测端点的基线模型相比,全轨迹预测模型的绝对精度较低,但预测结果仍落在预定义的空间范围内。 实际意义:为可控的移动声音生成提供了新思路,可集成到现有的文本到音频工作流中,应用于VR/AR、游戏、电影音效等需要动态空间音频的领域。 主要局限性:完全依赖于构建的合成数据集进行训练和评估,数据集中的运动轨迹为简单的线性匀速运动,音频与空间属性是解耦合成的,可能无法完全反映真实世界数据的复杂性;未与现有的端到端空间音频生成方法在生成质量(如听感自然度、空间准确性)上进行直接对比。 🏗️ 模型架构 本文提出的Text2Move框架由两个主要部分构成,其整体架构如图1所示。 ...

2026-04-29

Time-Domain Synthesis of Virtual Sound Source Within Personalized Sound Zone using a Linear Loudspeaker Array

📄 Time-Domain Synthesis of Virtual Sound Source Within Personalized Sound Zone using a Linear Loudspeaker Array #空间音频 #信号处理 #实时处理 #麦克风阵列 #波束成形 🔥 8.0/10 | 前25% | #空间音频 | #信号处理 | #实时处理 #麦克风阵列 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yuta Goshima (The University of Electro-Communications) 通讯作者:Yoichi Haneda (The University of Electro-Communications) 作者列表:Yuta Goshima (The University of Electro-Communications), Yoichi Haneda (The University of Electro-Communications) 💡 毒舌点评 亮点:论文将经典的稳相近似方法应用于声场合成的逆问题,推导出可逐样本更新的时域解析解,巧妙地绕开了基于DFT的帧处理限制,实现了虚拟声源位置、声音区域位置和宽度的“像素级”实时动态调整,这在理论优雅性和工程实用性上都值得称赞。 短板:方法的控制力严格局限于预设的参考线附近,论文中也承认“远离参考线的区域未被显式控制”,且高频性能受限于扬声器阵列的空间混叠,这限制了其在要求全空间精确控制的复杂场景中的应用潜力。 ...

2026-04-29

Materialistic RIR: Material Conditioned Realistic RIR Generation

📄 Materialistic RIR: Material Conditioned Realistic RIR Generation #音频生成 #多模态模型 #Transformer #对比学习 #空间音频 ✅ 7.5/10 | 前25% | #音频生成 | #多模态模型 | #Transformer #对比学习 | arxiv 学术质量 3.8/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 中 👥 作者与机构 第一作者:Mahnoor Fatima Saad (University of Utah) 通讯作者:未说明 作者列表:Mahnoor Fatima Saad (University of Utah)、Sagnik Majumder (UT Austin)、Kristen Grauman (UT Austin)、Ziad Al-Halah (University of Utah) 💡 毒舌点评 这篇论文的亮点在于提出了一个优雅的解耦框架(MatRIR),将空间布局和材料属性对声学的影响分开建模,从而实现了对RIR生成的精细控制,这在概念上和实验上都比之前纠缠在一起的方法更合理。然而,其短板也相当明显:模型严重依赖模拟数据集(Acoustic Wonderland),且对某些材料(如钢)的建模效果不佳,这限制了其在真实世界复杂场景中的泛化能力;此外,论文未提供代码和预训练模型,大大削弱了其可复现性和即时影响力。 📌 核心摘要 问题:现有的房间脉冲响应(RIR)生成方法通常将场景的空间布局和材料属性纠缠在一个表示中,导致用户无法独立控制材料配置来探索其对声学的影响,限制了生成的灵活性和真实性。 方法核心:提出MatRIR模型,采用显式解耦设计。它包含一个空间模块(仅从RGB图像和深度图预测反映空间布局的初始RIR)和一个材料感知模块(根据用户指定的材料分割掩码,对初始RIR进行调制,生成最终的材料条件RIR)。该设计允许在不改变空间结构的情况下修改材料配置。 创新点:与先前方法(如M-CAPA)相比,核心创新在于显式解耦空间和材料因素的建模过程,而非在联合表示中隐式学习。此外,引入了两个新的评估指标(MatC和MatD)来专门衡量模型对材料声学特性的捕获能力。 主要实验结果:在Acoustic Wonderland数据集上,MatRIR在标准声学指标(如RTE)和材料指标(MatC, MatD)上均显著优于最强基线(M-CAPA)。具体而言,在未见材料配置的测试集上,RTE(混响时间误差)降低了约16.8%,材料分类准确率(MatC)提升了71.2%。人类感知研究显示,60.4%的参与者认为MatRIR生成的音频更真实。 实际意义:该工作为虚拟现实(VR)、增强现实(AR)、机器人和建筑声学设计等领域提供了更真实、可控的声学模拟能力,允许用户探索不同材料对空间听感的影响。 主要局限性:模型在输入视角受限(如靠近墙壁)或场景被严重遮挡时性能下降;对某些材料(如钢)的声学特性建模不准确;评估和训练完全依赖于模拟数据集,真实世界泛化能力有待验证。 🏗️ 模型架构 MatRIR模型采用模块化设计,核心思想是将空间和材料因素对RIR的影响显式分离并顺序建模。 ...

2026-04-24