Generating Localized Audible Zones Using a Single-Channel Parametric Loudspeaker

📄 Generating Localized Audible Zones Using a Single-Channel Parametric Loudspeaker #空间音频 #麦克风阵列 #信号处理 #音频生成 ✅ 6.5/10 | 前50% | #空间音频 | #麦克风阵列 | #信号处理 #音频生成 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Tao Zhuang(南京大学现代声学实验室;南京大学-地平线智能音频联合实验室) 通讯作者:未说明 作者列表:Tao Zhuang(南京大学现代声学实验室;南京大学-地平线智能音频联合实验室),Shaozhe Li(南京大学现代声学实验室;南京大学-地平线智能音频联合实验室),Feng Niu(国家计量院力学与声学部),Jia-Xin Zhong(宾夕法尼亚州立大学声学研究生项目),Jing Lu(南京大学现代声学实验室;南京大学-地平线智能音频联合实验室) 💡 毒舌点评 亮点在于概念上的巧妙“偷天换日”,将多通道阵列处理所需的物理通道数,通过超声波非线性效应“虚拟”出来,从而用单一物理扬声器硬件实现了复杂声场控制,思路新颖且具启发性。短板则是这篇顶会论文的实验部分显得过于“理论”,仅停留在自由场条件的数值仿真,缺乏任何硬件原型搭建与实测数据验证,使得从“概念可行”到“实际可用”的距离依然模糊,论文的说服力因此大打折扣。 📌 核心摘要 本文针对传统声音区域控制(SZC)系统依赖多通道扬声器阵列、硬件复杂的瓶颈,提出了一种单通道多载波参量扬声器(MCPL)方案。其核心是将不同音频信号调制到多个不同频率的超声波载波上,合成单路信号后由单一换能器发射,利用空气的非线性自解调效应,在空气中虚拟出多个独立的音频通道,从而将为传统阵列设计的SZC算法直接应用于此虚拟通道。与已有双载波方法相比,该方案推广至N个载波,提供了更强的声场控制自由度。仿真实验表明,该方案能有效缩短声音的传播距离(例如,1kHz音频下,4载波系统的有效传播距离从传统PL的约7米缩短至1.8米),并生成局部化的听音区,验证了该方法在简化硬件系统的同时维持SZC性能的潜力。该工作的主要局限是所有结论均基于数值模拟,未进行实际硬件实验,且未讨论复杂声学环境下的鲁棒性。 🏗️ 模型架构 该系统并非传统意义上的深度学习模型,而是一个基于声学物理原理的信号处理与控制系统。其架构流程如下: 输入:一个音频信号 audio_signal(频率为fa)。 多载波调制(数字域):将该音频信号调制到N个频率不同(fc,1, fc,2, …, fc,N)的超声波载波上。每个载波通道 n 生成两个边带信号 wu,n 和 wu,n,分别控制下边带和上边带的幅度和相位,得到调制信号 sn(t)。 信号合成(数字域):将所有调制后的信号 sn(t) 相加,生成一个单一的复合电信号 s(t)。这是整个系统唯一的物理输出信号。 数模转换与发射:单一通道信号 s(t) 经过单个DAC转换为模拟信号,驱动单个超声波换能器阵列(文中称为“单通道参量扬声器”)。 空气非线性解调(物理域):发射出的超声波复合信号在空气中传播时,由于空气的非线性特性,不同载波频率的信号之间发生相互作用,自解调产生音频信号。论文的核心论点在于,当各载波频率间距足够大(>20kHz)时,最终产生的总音频声压 pa(r, ωa) 是各虚拟通道贡献的线性叠加,如公式(6)所示:pa = Σ wn * Ha,n。这等效于创建了N个虚拟的、由权重 wn 控制的独立音频源通道。 声场控制:基于这个虚拟的多通道模型,应用经典的声学对比度控制(ACC)算法。通过优化权重向量 w = [w1, ..., wN]T,最大化目标“亮区”与“暗区”之间的声压平方比(公式9-10),从而生成所需的局部化听音区。 图1:(a) 展示了圆形MCPL在平面内生成亮区和暗区的示意图。(b) 是信号流程图,清晰地展示了音频信号如何调制到N个载波,合成单一信号 s(t),并通过空气解调形成N个虚拟通道,最终辐射出所需的音频声场。 ...

2026-04-29

Generating Moving 3d Soundscapes with Latent Diffusion Models

📄 Generating Moving 3d Soundscapes with Latent Diffusion Models #空间音频 #扩散模型 #音频生成 #数据增强 #多通道 ✅ 7.5/10 | 前25% | #空间音频 | #扩散模型 | #音频生成 #数据增强 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Christian Templin (Stevens Institute of Technology, Hoboken, NJ, USA) 通讯作者:未说明 作者列表:Christian Templin(Stevens Institute of Technology)、Yanda Zhu(Hunan Normal University, Changsha, China)、Hao Wang(Stevens Institute of Technology) 💡 毒舌点评 亮点:首次将潜在扩散模型用于生成带动态声源轨迹控制的一阶Ambisonics音频,并构建了首个大规模带标注的动态空间音频数据集,填补了明确的空白。短板:虽然引入了参数化模型以提高空间精度,但对“动态”这一核心特性的评估主要停留在起止点的角度误差上,对声源在运动过程中轨迹的平滑度、连续性以及听感上的真实性缺乏更细致的量化分析和主观评估。 📌 核心摘要 问题:现有文本到音频生成模型大多局限于单声道或立体声,无法生成完整的三维空间音频。少数能生成一阶Ambisonics(FOA)音频的模型仅支持静态声源,无法处理用户指定的动态声源轨迹,且缺乏相关训练数据集。 方法核心:提出SonicMotion框架,这是一个端到端的潜在扩散模型,专为生成FOA音频设计。其核心创新在于引入了两种条件化方式:1)描述式模型,仅使用文本提示;2)参数式模型,额外使用一个“状态矩阵”作为条件,该矩阵显式编码了声源在时间上的方位角和仰角轨迹。 新意:这是首个能够生成带有用户可控运动轨迹的FOA音频的潜在扩散模型。同时,为解决数据匮乏问题,作者构建了一个超过100万对模拟的FOA-文本数据对的新数据集,包含静态和动态声源及详细运动元数据。 主要结果:实验表明,SonicMotion在语义对齐(CLAP分数)和感知质量(FD, FAD)上与领先的文本到音频模型(如AudioLDM 2)相当。在空间精度上,参数式模型(SM-P)显著优于描述式模型(SM-D),其方位角误差降至13.17°,仰角误差降至4.01°,空间总角度误差降至14.32°,相比SM-D有约51%的整体性能提升。自编码器的重建保真度极高,空间角度误差仅为3.72°。 实际意义:为VR/AR、电影和音乐制作提供了自动化创建沉浸式动态声景的新工具,有望降低专业空间音频内容的制作门槛和成本。 主要局限性:模型基于模拟数据训练和评估,其在真实录音或复杂声学场景下的泛化能力有待验证。评估指标主要关注声源起止点的定位精度,对整个运动轨迹的保真度评估不足。此外,仅支持一阶Ambisonics,更高阶的空间分辨率有待探索。 🏗️ 模型架构 SonicMotion是一个端到端的框架,整体流程分为数据准备、自编码器训练和扩散模型生成三个主要阶段。 ...

2026-04-29

Generative Audio Extension and Morphing

📄 Generative Audio Extension and Morphing #音频生成 #扩散模型 #数据集 #音频编辑 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #数据集 #音频编辑 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明(论文注明Prem Seetharaman⋆, Oriol Nieto⋆为同等贡献) 通讯作者:未说明 作者列表:Prem Seetharaman(Adobe Research, San Francisco, CA, USA)、Oriol Nieto(Adobe Research, San Francisco, CA, USA)、Justin Salamon���Adobe Research, San Francisco, CA, USA) 💡 毒舌点评 论文的亮点在于将技术问题(音频生成)与特定用户群体(音效设计师)的需求紧密结合,并针对性地设计了“噪声底数据集”来解决生成静态声音时的幻觉问题,展现了工程上的巧思。短板则在于,它本质上是将音频修复/填充任务包装成了一个“生成”任务,且缺乏与当前最先进文本到音频模型(如AudioLDM 2, VampNet等)在通用生成能力上的直接对比,其技术壁垒和普适性有待商榷。 📌 核心摘要 要解决什么问题:音效设计师在创作中常需要将现有音频片段进行扩展(向前或向后)或在两个不同音频间进行无缝变形(morphing),传统方法耗时且易产生伪影。 方法核心是什么:使用基于扩散Transformer(DiT)的模型,在音频的潜在空间进行操作。核心是提出了一种音频提示指导(Audio Prompt Guidance, APG) 技术,通过在扩散过程中对已知(被掩码的)音频潜在表示和未知(噪声)部分应用一种变体的分类器自由引导(CFG),使生成结果更好地贴合原始音频提示。此外,为了克服在生成持续/静态声音(如环境音)时模型易产生无关噪声的“幻觉”问题,提出了使用合成的噪声底数据集(Noise Floor Dataset) 对模型进行微调。 与已有方法相比新在哪里:1) 提出APG,首次将CFG变体直接应用于音频模态本身以增强生成音频与输入提示的保真度。2) 设计了专门针对音效设计师需求(处理48kHz立体声、特效/环境声)的端到端扩展/变形框架。3) 创新性地构建大规模合成数据集(1.3M小时)并用于微调,以缓解特定数据分布导致的生成幻觉问题。 主要实验结果如何: 客观质量(FAD↓):生成变形(GenMorph)的FAD为0.432,与原始音频(0.426)几乎持平,显著优于白噪声(1.358)和卷积噪声匹配(0.599)等基线。 方法 FAD ↓ GenExtend 0.520 GenMorph 0.432 Convolutional Noise Matching 0.599 White Noise 1.358 Noise Floor 0.586 Original Audio (上界) 0.426 - 主观测试(MOS 1-5分):15名参与者(含专业人士)对音频扩展结果的平滑度、一致性和质量平均评分为3.5,3.8,3.5。中位数评分均为4分(对应“相当无缝”、“相当相关”、“良好”)。 - APG消融:指导强度γ从0增加到5时,FAD持续改善;在γ=5时,变形任务的FAD略有上升,故选定γ=5。 实际意义是什么:为音效设计师提供了一个高效、高质量的音频片段扩展与变形工具,有望减少重复性手动操作,提升创作效率。其提出的APG和数据集微调策略也可能对其他条件音频生成任务有参考价值。 主要局限性是什么:1) 应用范围限定在音效和环境声,明确排除了语音和音乐。2) 未与当前最强的通用音频生成模型(如基于大规模网络文本-音频对训练的模型)进行对比,其生成质量的天花板尚不明确。3) 训练数据(110万样本)和噪声底数据集(合成)的具体内容和质量未详细公开,可复现性依赖于作者未共享的资源。 🏗️ 模型架构 模型整体架构是一个在音频潜在空间进行操作的扩散流程,主要包含编码器、扩散Transformer(DiT)、解码器以及核心的APG和掩码机制。 ...

2026-04-29

GMS-CAVP: Improving Audio-Video Correspondence with Multi-Scale Constrative and Generative Pretraining

📄 GMS-CAVP: Improving Audio-Video Correspondence with Multi-Scale Constrative and Generative Pretraining #音视频 #对比学习 #扩散模型 #音频生成 #多尺度模型 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #音视频 #对比学习 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(论文作者列表为“Shentong Mo1,2,3, Zehua Chen3, Jun Zhu3”,未明确标注第一作者) 通讯作者:未说明 作者列表:Shentong Mo(卡内基梅隆大学,MBZUAI,清华大学),Zehua Chen(清华大学),Jun Zhu(清华大学) 💡 毒舌点评 亮点在于将多尺度对比学习和多尺度扩散生成统一在一个框架内,为音视频预训练提供了新范式,实验结果在多个指标上刷新了SOTA;短板是论文对于模型具体架构细节(如扩散模型中噪声预测网络的具体设计)、训练硬件和完整超参数列表描述不足,且未提及开源计划,这使得严格的复现存在挑战。 📌 核心摘要 本文旨在解决现有对比音视频预训练方法在捕捉细粒度、多层次跨模态对应关系以及直接支持生成任务方面的不足。方法核心是提出GMS-CAVP框架,它统一了多尺度视频-音频对齐(MSA)的对比学习目标与多尺度空间-时间扩散(MSD)的生成预训练目标。与之前仅使用单尺度全局对比学习的方法相比,GMS-CAVP能捕获从细到粗的时空依赖关系,并直接建模模态间的转换映射。主要实验结果表明,在VGGSound等数据集上,GMS-CAVP在视频到音频生成任务(KLD: 1.63, FAD: 0.75, Align Acc: 95.87)和检索任务(如视频到音频R@1: 28.90)上均大幅超越了现有方法。其实际意义是为音视频理解与生成提供了更强大、统一的预训练基础。主要局限性可能包括模型复杂度增加带来的计算开销,以及对扩散模型采样速度的潜在影响(论文未深入讨论)。 关键实验数据对比: 方法 KLD ↓ FAD ↓ Align Acc ↑ SpecVQGAN 3.78 6.63 48.79 Im2Wav 2.54 6.32 74.31 Diff-Foley 3.15 6.40 82.47 FoleyGen 2.89 2.59 73.83 V2A-Mapper 2.78 0.99 74.37 Seeing & Hearing 2.62 2.63 78.95 MaskVAT 2.65 1.51 63.87 VAB 2.58 2.69 76.83 VATT 2.25 2.35 82.81 GMS-CAVP (ours) 1.63 0.75 95.87 🏗️ 模型架构 GMS-CAVP是一个统一的判别-生成预训练框架,旨在学习鲁棒的音视频对应表示。 ...

2026-04-29

HFSQVAE: Hierarchical Vector Quantization with Residuals for Frequency-Specific Embedding

📄 HFSQVAE: Hierarchical Vector Quantization with Residuals for Frequency-Specific Embedding #向量量化 #音频生成 #音频分类 #图像重建 #信号处理 ✅ 7.0/10 | 前25% | #音频生成 | #向量量化 | #音频分类 #图像重建 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Min Woo Kim(首尔大学电气与计算机工程系,INMC实验室) 通讯作者:未说明 作者列表:Min Woo Kim(首尔大学电气与计算机工程系,INMC实验室)、Seonji Park(首尔大学电气与计算机工程系,INMC实验室)、Nam Ik Cho(首尔大学电气与计算机工程系,INMC实验室) 💡 毒舌点评 亮点:将“频谱偏差”从模型缺陷转化为可利用的先验知识,用“分而治之”的思路设计分层码本,并用乘积量化高效编码高频残差,逻辑清晰且工程实现合理。 短板:作为一篇发表在ICASSP 2026的论文,未提供任何代码或模型权重,对于一个方法论文来说,这严重削弱了其可复现性和社区影响力;此外,对比的基线方法(VQVAE, SQVAE等)已非当前SOTA,说服力有待加强。 📌 核心摘要 这篇论文旨在解决卷积神经网络在向量量化变分自编码器中固有的“频谱偏差”问题,即模型倾向于优先编码低频信息而忽略高频细节。 核心方法是提出HFSQVAE,一个包含两个层次化码本的架构:第一个码本(C_L)利用网络的天然频谱偏差来编码低频成分;第二个码本(C_H)则通过乘积量化技术,专注于编码输入图像减去第一个码本重建结果后得到的高频残差信息。 与已有方法相比,其新意在于:1) 将频率分离作为显式设计目标;2) 在图像空间而非潜在空间处理残差;3) 引入乘积量化以高效扩展高频码本容量;4) 提出交替训练策略以稳定优化。 实验结果表明,HFSQVAE在ImageNet(图像)和UrbanSound8K(音频频谱)数据集上,以更少的码本参数量,取得了优于VQVAE、SQVAE、CVQVAE、RQVAE等基线的重建精度。例如,在ImageNet上PSNR达到29.703(基线最优为27.719),LPIPS降至0.139(基线最优为0.221)。 实际意义在于为图像和音频的离散表示学习提供了一种更高效、更保真的编码方案,可能有助于下游的生成或分析任务。 主要局限性包括:未在更复杂的生成任务(如图像生成)中验证;未与最新的基于扩散模型的生成方法进行比较;且未开源任何实现细节。 🏗️ 模型架构 HFSQVAE的整体架构是一个两阶段的层次化系统,旨在分别处理输入数据(X)的低频和高频成分。 架构流程与组件详解: ...

2026-04-29

Hierarchical Discrete Flow Matching For Multi-Codebook Codec-Based Text-To-Speech

📄 Hierarchical Discrete Flow Matching For Multi-Codebook Codec-Based Text-To-Speech #语音合成 #流匹配 #零样本 #音频生成 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #零样本 #音频生成 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 中 👥 作者与机构 第一作者:未说明(论文中列出了多位作者,未明确指出第一作者) 通讯作者:未说明(论文中未明确指出) 作者列表:Joun Yeop Lee(三星研究院,三星电子)、Heejin Choi(三星研究院,三星电子)、Min-Kyung Kim(三星研究院,三星电子)、Ji-Hyun Lee(三星研究院,三星电子)、Hoon-Young Cho(三星研究院,三星电子) 💡 毒舌点评 该论文巧妙地将RVQ编解码器的“由粗到细”先验知识,内化为流匹配模型的训练课程与推理调度,逻辑清晰且实验增益显著,这是其最亮眼的工程创新。然而,论文对训练细节的“黑箱化”处理(如模型具体大小、完整超参数列表、训练时长)和仅有演示页面而无代码公开的现状,让其学术严谨性和社区复现性大打折扣。 📌 核心摘要 要解决什么问题:现有将离散流匹配(DFM)应用于基于残差向量量化(RVQ)的文本到语音(TTS)时,通常将所有码本视为同等,忽略了浅层码本(捕获粗结构)与深层码本(细化细节)之间的层次依赖关系,导致性能受限。 方法核心是什么:提出分层离散流匹配(H-DFM)。核心包括两方面:训练阶段,采用随机粗细模式课程学习——粗模式下遮蔽细码本噪声样本,仅更新粗码本头;细模式下用真实粗码本条件化,仅更新细码本头。推理阶段,采用粗偏向的两阶段调度——先用大部分步骤(Bc步)稳定粗码本(全局结构),再用少量步骤(Bf步)细化细码本。 与已有方法相比新在哪里:首次系统性地将RVQ的层次结构显式对齐到DFM的训练与推理过程中。相比直接应用DFM(F5-DFM),H-DFM通过架构(多头)和策略(课程学习、偏向调度)强制模型学习码本间的依赖关系,而非独立预测。 主要实验结果如何: 在零样本TTS评估中(NFE=32,粗细比例1/16),H-DFM相比基线显著提升。 关键客观指标对比: 模型 WER (%) ↓ SECS ↑ UTMOS ↑ F5-TTS (连续FM基线) 4.559 0.605 3.853 F5-DFM (朴素离散FM) 4.434 0.564 4.013 F5-H-DFM (本文方法) 3.036 0.609 4.205 H-DFM在可懂度(WER)和说话人相似度(SECS)上均取得最优,并在自然度(UTMOS)上也有较大提升。 消融实验表明,粗细推理比例(rcf=1/16)优于更平衡的比例(1/8, 1/2),验证了粗偏向策略的有效性。 实际意义是什么:为基于RVQ的高质量、非自回归TTS提供了一种更高效的解码方案。通过尊重编解码器的设计原理,可以在固定计算预算下获得更好的合成质量,对追求低延迟和高质量语音合成的工业应用有直接价值。 主要局限性:方法依赖于特定编解码器(HiFi-Codec)的固定层次结构和预先定义的粗细划分;训练与推理调度中的超参数(如pc=0.7, rcf=1/16)需要手动调整;论文未详细公开所有训练细节和模型参数,限制了可复现性。 🏗️ 模型架构 H-DFM的模型架构基于F5-TTS的扩散Transformer(DiT)主干网络进行修改。 ...

2026-04-29

ICASSP 2026 - 音频生成 论文列表

ICASSP 2026 - 音频生成 共 39 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 SwitchCodec: Adaptive Residual-Expert Sparse Quantization fo 8.5分 前25% 🥈 Synthcloner: Synthesizer-Style Audio Transfer via Factorized 8.5分 前25% 🥉 MAG: Multi-Modal Aligned Autoregressive Co-Speech Gesture Ge 8.0分 前25% 4. Training-Free Multimodal Guidance for Video to Audio Generat 8.0分 前25% 5. Audience-Aware Co-speech Gesture Generation in Public Speaki 8.0分 前50% 6. Matching Reverberant Speech Through Learned Acoustic Embeddi 8.0分 前25% 7. Assessing The Perceptual Impact of Low-Altitude Aircraft Noi 8.0分 前25% 8. Parametric Neural Amp Modeling with Active Learning 8.0分 前25% 9. AUV: Teaching Audio Universal Vector Quantization with Singl 8.0分 前25% 10. EuleroDec: A Complex-Valued RVQ-VAE for Efficient and Robust 8.0分 前25% 11. Improving Interpretability in Generative Multitimbral DDSP F 7.5分 前25% 12. Cardiobridge-DM: Bridging Cross-Cohort Heart Sound Synthesis 7.5分 前25% 13. Disentangling Physiology from Fidelity: Latent-Guided Diffus 7.5分 前25% 14. GMS-CAVP: Improving Audio-Video Correspondence with Multi-Sc 7.5分 前25% 15. KSDIFF: Keyframe-Augmented Speech-Aware Dual-Path Diffusion 7.5分 前25% 16. Sunac: Source-Aware Unified Neural Audio Codec 7.5分 前50% 17. S-PRESSO: Ultra Low Bitrate Sound Effect Compression with Di 7.5分 前25% 18. PICOAUDIO2: Temporal Controllable Text-to-Audio Generation w 7.5分 前25% 19. FoleyBench: A Benchmark for Video-to-Audio Models 7.5分 前25% 20. Multimodal Room Impulse Response Generation Through Latent R 7.5分 前25% 21. Mix2Morph: Learning Sound Morphing from Noisy Mixes 7.5分 前25% 22. Generative Audio Extension and Morphing 7.5分 前25% 23. FlashFoley: Fast Interactive Sketch2audio Generation 7.5分 前25% 24. Mitigating Data Replication in Text-to-Audio Generative Diff 7.5分 前25% 25. Learning Linearity in Audio Consistency Autoencoders via Imp 7.5分 前25% 26. Spring Reverb Emulation with Hybrid Gated Convolutional Netw 7.5分 前25% 27. StereoFoley: Object-Aware Stereo Audio Generation from Video 7.5分 前25% 28. AudioGen-Omni: A Unified Multimodal Diffusion Transformer fo 7.5分 前25% 29. Meanflow-Accelerated Multimodal Video-to-Audio Synthesis Via 7.5分 前25% 30. TAG: Structured Temporal Audio Generation via LLM-Guided Man 7.5分 前25% 31. HFSQVAE: Hierarchical Vector Quantization with Residuals for 7.0分 前25% 32. Sounds that Shape: Audio-Driven 3D Mesh Generation with Attr 7.0分 前25% 33. ReCoM: Realistic Co-Speech Motion Generation with Recurrent 7.0分 前25% 34. Arbitrarily Settable Frame Rate Neural Speech Codec with Con 7.0分 前25% 35. A Speech-Driven Paradigm for Physics-Informed Modeling of Co 7.0分 前50% 36. FxSearcher: Gradient-Free Text-Driven Audio Transformation 7.0分 前50% 37. FODGE : High-Fidelity Dance Generation via Full-Body Optimiz 6.5分 前50% 38. Feedback-Driven Retrieval-Augmented Audio Generation with La 6.5分 前25% 39. Taming Audio VAEs via Target-KL Regularization 6.5分 前25% 📋 论文详情 🥇 SwitchCodec: Adaptive Residual-Expert Sparse Quantization for High-Fidelity Neural Audio Coding 🔥 8.5/10 | 前25% | #音频生成 | #模型评估 | #向量量化 #混合专家 ...

2026-04-29

Improving Interpretability in Generative Multitimbral DDSP Frameworks via Semantically-Disentangled Musical Attributes

📄 Improving Interpretability in Generative Multitimbral DDSP Frameworks via Semantically-Disentangled Musical Attributes #音频生成 #音乐生成 #信号处理 #解耦表示 ✅ 7.5/10 | 前25% | #音频生成 | #信号处理 | #音乐生成 #解耦表示 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Francesco Ardan Dal Rì(特伦托大学信息工程与计算机科学系) 通讯作者:未说明 作者列表:Francesco Ardan Dal Rì(特伦托大学信息工程与计算机科学系)、Nicola Conci(特伦托大学信息工程与计算机科学系) 💡 毒舌点评 这篇论文巧妙地将语义解耦的VAE与改进的DDSP结合,解决了多乐器生成中“控制黑箱”的痛点,实验也证明了其灵活生成能力。不过,它只在TinySOL这样的小型数据集上验证,且避开了与更强大的扩散式音频生成模型的正面比较,说服力打了折扣。 📌 核心摘要 要解决什么问题:传统DDSP(可微分数字信号处理)架构依赖帧级潜在编码,在多乐器纯生成设置中缺乏全局语义可解释性,且音色与力度等音乐属性相互纠缠,难以实现独立、可控的生成。 方法核心是什么:提出一个由Triple-VAE编码器和改进DDSP解码器组成的框架。Triple-VAE从频谱图中提取语义解耦的全局音色(t)和力度(d)嵌入(各8维)。DDSP解码器以这些全局嵌入、归一化包络曲线和音高轮廓为输入,使用双层GRU来学习复杂的时序依赖,最终通过谐波+噪声(HpN)模块合成波形。 与已有方法相比新在哪里:首次在多乐器DDSP框架中引入通过监督学习强制解耦的全局音色与力度表示,替代了传统的帧级z编码。同时,用归一化包络曲线替代原始响度曲线作为控制信号,并使用双层GRU而非单层RNN来更好地从全局表示中建模时序细节。 主要实验结果如何:在TinySOL数据集上,框架在多种乐器数量配置下均表现出色。 Triple-VAE的属性分类准确率(C Acc.)接近1.0,而“移除器”准确率(R Acc.)较低,证明解耦有效。 DDSP重建的感知质量(MR-STFT)稳定在1.133-1.209,与基线相当。 生成质量(FAD)优于基线,其中PANN-FAD(时序相关)随乐器数增加显著下降至0.019×10⁻⁴,表明包络建模能力增强。 相较于基线(无解耦VAE+传统DDSP),本框架在FAD指标上提升显著(如VGG-FAD: 2.256 vs 4.556 @ t=2)。 关键数据见下表: 配置 Triple-VAE MSE (×10⁻³)↓ C Acc.↑ (t/p/d) R Acc.↓ (t/p/d) DDSP MR-STFT↓ DDSP MSE (×10⁻³)↓ DDSP FAD VGG↓ DDSP FAD PANN (×10⁻⁴)↓ t=2 5.664 ± 3.970 1.00 / 1.00 / 1.00 0.74 / 0.21 / 0.44 1.208 ± 0.056 4.168 ± 0.974 2.256 0.500 t=4 5.488 ± 3.698 1.00 / 1.00 / 0.99 0.50 / 0.19 / 0.52 1.209 ± 0.077 6.263 ± 1.873 2.448 0.132 t=8 5.556 ± 3.797 1.00 / 1.00 / 0.99 0.37 / 0.13 / 0.54 1.153 ± 0.075 10.310 ± 4.550 2.618 0.019 t=14 5.733 ± 4.808 0.99 / 1.00 / 0.99 0.29 / 0.14 / 0.54 1.133 ± 0.078 13.622 ± 6.220 2.743 0.019 基线 (t=2) 5.574 ± 4.879 1.00 / 0.99 / 0.99 // // // 1.292 ± 0.072 4.728 ± 1.662 4.556 1.688 实际意义是什么:该框架使得从仅16维的紧凑、语义明确的潜在空间中生成高质量、可控的多乐器音频成为可能,为实时声音设计、音乐制作和创意音频合成提供了新的工具。 主要局限性:实验仅在小型数据集(TinySOL)上进行,且乐器种类有限。框架性能随乐器数量增加在波形级(MSE)和频谱级(VGG-FAD)上有所下降。未来需验证其在更大规模、更多样数据集及复杂非谐波声音上的泛化能力。 🏗️ 模型架构 本文提出一个端到端的“Triple-VAE编码器 + DDSP解码器”框架,用于多乐器声学声音的可控生成。整体流程如下:输入音频首先被转换为频谱图和归一化的包络(RMS)、音高(YIN)轮廓。频谱图被送入Triple-VAE编码器,输出解耦的全局潜在表示;包络和音高轮廓与全局潜在表示拼接后,作为DDSP解码器的输入,最终合成音频波形。 ...

2026-04-29

KSDIFF: Keyframe-Augmented Speech-Aware Dual-Path Diffusion for Facial Animation

📄 KSDIFF: Keyframe-Augmented Speech-Aware Dual-Path Diffusion for Facial Animation #音频生成 #扩散模型 #跨模态 #关键帧检测 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #跨模态 #关键帧检测 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Tianle Lyu†, Junchuan Zhao†(论文中标注†表示同等贡献) 通讯作者:Ye Wang⋆(新加坡国立大学计算学院, wangye@comp.nus.edu.sg) 作者列表:Tianle Lyu(新加坡国立大学计算学院)、Junchuan Zhao(新加坡国立大学计算学院)、Ye Wang(新加坡国立大学计算学院) 💡 毒舌点评 亮点在于将语音特征显式解耦为表情和头部姿势两个独立路径进行建模,这一设计思路抓住了面部动作驱动的核心差异,实验也证实了其有效性;但短板在于对“关键帧”的选择和建模仍依赖于启发式规则(基于真值帧间变化的阈值),其自回归预测模块的鲁棒性和泛化边界未得到充分探讨。 📌 核心摘要 问题:现有音频驱动面部动画方法通常将语音特征视为一个整体,忽略了其对表情(高频变化)和头部姿势(低频变化)的差异化驱动作用,同时未能有效建模运动中的关键动态帧。 方法:提出KSDiff框架,核心包括:(1) 双路径语音编码器(DPSE),利用多尺度扩张卷积和Prosody信息,将语音特征解耦为表情相关和头部姿势相关两个分支;(2) 关键帧建立学习(KEL)模块,通过自回归Transformer预测运动最剧烈的帧;(3) 基于DiffSpeaker的双路径扩散生成器,分别合成表情和头部姿势系数。 创新:主要创新在于明确提出并实现了语音特征的“解耦”处理,以及引入了数据驱动的、具有物理意义的关键帧预测模块,将两者协同融入扩散生成流程。 实验:在HDTF和VoxCeleb数据集上,KSDiff在多项指标上优于或媲美SOTA方法。例如,在HDTF测试集上,其LVE(唇部顶点误差)降至4.835×10⁻⁵ mm,LSE-C(同步置信度)提升至0.708,头部姿势Diversity(多样性)达0.318,Beat Align(节奏对齐)达0.354(表1)。消融研究(表3)证明,移除语音特征分离、双路径扩散、关键帧或韵律模块均会导致性能下降。 意义:该工作推动了音频驱动面部动画向更精细化、物理一致性的方向发展,为虚拟人生成提供了更逼真的运动控制方案。 局限性:关键帧提取依赖于真值运动序列的后处理,其在线预测性能上限受限;对极端或非常规的面部表情与头部运动组合的生成能力未做深入探讨。 🏗️ 模型架构 KSDiff的整体架构如图2所示。系统接收原始音频 a1:N 和转录文本 x1:L 作为输入。 双路径语音编码器 (DPSE): ...

2026-04-29

Learning Linearity in Audio Consistency Autoencoders via Implicit Regularization

📄 Learning Linearity in Audio Consistency Autoencoders via Implicit Regularization #音频生成 #音乐生成 #扩散模型 #数据增强 #模型评估 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #音乐生成 #数据增强 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Bernardo Torres(LTCI, Telecom Paris, Institut Polytechnique de Paris) 通讯作者:未说明 作者列表:Bernardo Torres(LTCI, Telecom Paris, Institut Polytechnique de Paris),Manuel Moussallam(Deezer Research),Gabriel Meseguer-Brocal(Deezer Research) 💡 毒舌点评 亮点:方法异常优雅——仅通过训练时对潜向量和音频波形施加精心设计的数据增强(增益缩放和人工混合),就“教”会了一个复杂的扩散自编码器学习线性,而不增加任何额外的损失项或架构改动。短板:该方法严重依赖于所选择的 Music2Latent CAE 架构,其通用性未得到验证;且论文中展示的“音源分离”仅为基于潜空间算术的Oracle实验,距离实际、复杂的分离应用仍有很大差距,更像一个原理验证(proof-of-concept)。 📌 核心摘要 要解决什么问题:现代音频自编码器(AE)能实现高压缩和高质量重建,但其编码得到的潜在空间通常是非线性的、纠缠的,导致无法进行直观的代数操作(如在潜空间直接混合或缩放音频)。 方法核心是什么:提出一种基于数据增强的隐式正则化方法,在不改变自编码器(本文为一致性自编码器CAE)架构和损失函数的前提下,诱导其学习线性(齐次性和可加性)。具体技巧包括:(1) 隐式齐次性:训练时对潜向量施加随机增益a,并要求解码器从带增益a的音频中重建,迫使模型学习增益的线性映射;(2) 隐式可加性:通过构造人工混合音频,并用其对应源潜向量的平均值作为条件进行训练,鼓励加法性质。 与已有方法相比新在哪里:与需要修改架构或引入额外损失项的方法不同,本工作证明仅通过训练时的数据增强就能有效诱导出近似的线性潜空间。这使得自编码器在保持原有高压缩比(64倍)和单步重建能力的同时,获得了可操作性。 主要实验结果如何:在MusicCaps和MUSDB18-HQ数据集上的实验表明,所提出的Lin-CAE模型: 重建质量:与基线CAE(M2L)相当,在MSS上(1.01 vs 0.98)和SNR上(3.19 vs 3.09)略有提升。 同质性(齐次性):远优于所有基线。解码器同质性MSS降解从基线的约2.3倍(0.98→2.27)减少至1.36倍(1.01→1.37)。 可加性与源分离:在潜空间算术任务中表现突出。解码器可加性MSS从基线的5.0以上降至0.99。在Oracle音源分离(减去伴奏潜向量)任务中,Lin-CAE的SI-SDR和MSS在所有乐器上均显著优于基线,例如人声分离SI-SDR为-1.18 dB(基线M2L为-12.56 dB)。 实际意义是什么:提供了一种简单有效的技术,用于构建结构化、可操作的音频潜空间。这使得在压缩域内进行高效的音频混合、编辑和分离成为可能,为音频生成和处理提供了更直观的接口。 主要局限性是什么:方法与特定的CAE架构耦合紧密,泛化性未知;所验证的源分离任务为理想化的Oracle设置(已知需要分离的源),未处理真实场景下的盲分离;线性是近似的,其程度可能随任务复杂度增加而面临挑战。 🏗️ 模型架构 本文提出的Lin-CAE架构基于已有的Music2Latent (M2L)一致性自编码器(CAE),并未修改其基础结构,仅在训练流程上进行了增补。整体架构是一个条件扩散模型,用于音频压缩与重建。 ...

2026-04-29