📄 Generative Audio Extension and Morphing #音频生成 #扩散模型 #数据集 #音频编辑
✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #数据集 #音频编辑
学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高
👥 作者与机构 第一作者:未说明(论文注明Prem Seetharaman⋆, Oriol Nieto⋆为同等贡献) 通讯作者:未说明 作者列表:Prem Seetharaman(Adobe Research, San Francisco, CA, USA)、Oriol Nieto(Adobe Research, San Francisco, CA, USA)、Justin Salamon���Adobe Research, San Francisco, CA, USA) 💡 毒舌点评 论文的亮点在于将技术问题(音频生成)与特定用户群体(音效设计师)的需求紧密结合,并针对性地设计了“噪声底数据集”来解决生成静态声音时的幻觉问题,展现了工程上的巧思。短板则在于,它本质上是将音频修复/填充任务包装成了一个“生成”任务,且缺乏与当前最先进文本到音频模型(如AudioLDM 2, VampNet等)在通用生成能力上的直接对比,其技术壁垒和普适性有待商榷。
📌 核心摘要 要解决什么问题:音效设计师在创作中常需要将现有音频片段进行扩展(向前或向后)或在两个不同音频间进行无缝变形(morphing),传统方法耗时且易产生伪影。 方法核心是什么:使用基于扩散Transformer(DiT)的模型,在音频的潜在空间进行操作。核心是提出了一种音频提示指导(Audio Prompt Guidance, APG) 技术,通过在扩散过程中对已知(被掩码的)音频潜在表示和未知(噪声)部分应用一种变体的分类器自由引导(CFG),使生成结果更好地贴合原始音频提示。此外,为了克服在生成持续/静态声音(如环境音)时模型易产生无关噪声的“幻觉”问题,提出了使用合成的噪声底数据集(Noise Floor Dataset) 对模型进行微调。 与已有方法相比新在哪里:1) 提出APG,首次将CFG变体直接应用于音频模态本身以增强生成音频与输入提示的保真度。2) 设计了专门针对音效设计师需求(处理48kHz立体声、特效/环境声)的端到端扩展/变形框架。3) 创新性地构建大规模合成数据集(1.3M小时)并用于微调,以缓解特定数据分布导致的生成幻觉问题。 主要实验结果如何: 客观质量(FAD↓):生成变形(GenMorph)的FAD为0.432,与原始音频(0.426)几乎持平,显著优于白噪声(1.358)和卷积噪声匹配(0.599)等基线。 方法 FAD ↓ GenExtend 0.520 GenMorph 0.432 Convolutional Noise Matching 0.599 White Noise 1.358 Noise Floor 0.586 Original Audio (上界) 0.426 - 主观测试(MOS 1-5分):15名参与者(含专业人士)对音频扩展结果的平滑度、一致性和质量平均评分为3.5,3.8,3.5。中位数评分均为4分(对应“相当无缝”、“相当相关”、“良好”)。 - APG消融:指导强度γ从0增加到5时,FAD持续改善;在γ=5时,变形任务的FAD略有上升,故选定γ=5。 实际意义是什么:为音效设计师提供了一个高效、高质量的音频片段扩展与变形工具,有望减少重复性手动操作,提升创作效率。其提出的APG和数据集微调策略也可能对其他条件音频生成任务有参考价值。 主要局限性是什么:1) 应用范围限定在音效和环境声,明确排除了语音和音乐。2) 未与当前最强的通用音频生成模型(如基于大规模网络文本-音频对训练的模型)进行对比,其生成质量的天花板尚不明确。3) 训练数据(110万样本)和噪声底数据集(合成)的具体内容和质量未详细公开,可复现性依赖于作者未共享的资源。 🏗️ 模型架构 模型整体架构是一个在音频潜在空间进行操作的扩散流程,主要包含编码器、扩散Transformer(DiT)、解码器以及核心的APG和掩码机制。
...