Towards Multi-View Hierarchical Video-to-Piano Generation with MIDI Guidance
📄 Towards Multi-View Hierarchical Video-to-Piano Generation with MIDI Guidance #音乐生成 #扩散模型 #多模态模型 #跨模态 ✅ 7.0/10 | 前25% | #音乐生成 | #扩散模型 | #多模态模型 #跨模态 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Chang Liu(巨像AI Lab;特伦托大学) 通讯作者:Zihao Chen†(巨像AI Lab) 作者列表:Chang Liu(巨像AI Lab;特伦托大学), Zihao Chen†(巨像AI Lab), Gongyu Chen(巨像AI Lab), Chaofan Ding(巨像AI Lab), Nicu Sebe(特伦托大学) 💡 毒舌点评 论文的核心思路——用分层、多视角的符号化MIDI信息来“指挥”扩散模型生成更精准的钢琴音频,是清晰且有效的,实验中SI-SDR的巨幅提升(如从-4.87 dB到2.45 dB)也极具说服力。然而,这篇工作就像在精心打磨一个高度定制的工具,却对工具的内部齿轮(控制分支具体如何融合MIDI特征)和打造工具的材料(训练数据集细节)语焉不详,这给希望跟进的同行留下了不小的障碍。 📌 核心摘要 问题:现有视频到音频(V2A)的生成方法在直接映射视频到波形时,难以精确捕捉钢琴演奏中细微的时序、力度和延音控制,导致生成音频的时序对齐和音乐表现力不足。 方法核心:提出一个分层的视频到钢琴(V2P)生成框架。其核心是引入MIDI作为中间表示,通过一个多视角MIDI预测器从不同摄像头视角(顶视、前视、侧视、踏板视)渐进式地预测音符起始、力度和延音等符号信息,然后利用一个控制分支将这些层级化的MIDI信息注入到基于扩散变换器(DiT)的音频生成模型中,以引导更精确的波形合成。 创新性:相比于现有“视频->波形”的端到端方法,该工作首次在V2P任务中提出:a) 分层MIDI引导的生成范式;b) 利用多视角视频(特别是踏板视角)捕捉完整演奏动态;c) 通用的控制分支设计,可集成到不同V2A模型中。 主要实验结果:在Audeo和EGQ两个测试集上,将所提方法应用于YingSound、MMAudio等多个基线模型。结果显示,加入MIDI引导后,音频生成质量显著提升。例如,在MMAudio-S-16kHz模型上,SI-SDR从-2.15 dB提升至2.31 dB(提升207.44%),FDPANNS从3.0643降至2.0657(降低32.59%)。频谱图对比也显示MIDI引导能有效修复基线模型生成的不准确片段。 实际意义:该方法能生成与演奏视频高度同步且富有表现力的钢琴音频,可应用于无声钢琴视频配音、音乐教学反馈、自动乐谱生成辅助等场景。 主要局限性:a) 方法目前仅针对钢琴这一种乐器,未验证其对其他乐器的泛化性;b) 多视角输入在实际应用中可能增加部署复杂度和成本;c) 训练依赖多视角同步录制的钢琴视频-MIDI数据集,数据获取门槛较高。 🏗️ 模型架构 本文提出的分层V2P框架包含三个阶段,其整体架构如图2所示。 ...