Via Score to Performance: Efficient Human-Controllable Long Song Generation with Bar-Level Symbolic Notation
📄 Via Score to Performance: Efficient Human-Controllable Long Song Generation with Bar-Level Symbolic Notation #音乐生成 #自回归模型 #音频生成 #开源工具 ✅ 7.5/10 | 前25% | #音乐生成 | #自回归模型 | #音频生成 #开源工具 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Tongxi Wang(Southeast University, 中国) 通讯作者:Junlang Qian(Nanyang Technological University, 新加坡) 作者列表:Tongxi Wang(Southeast University), Yang Yu(Southeast University), Qing Wang(Southeast University), Junlang Qian(Nanyang Technological University) 💡 毒舌点评 这篇论文的“先乐谱后表演”范式巧妙地将复杂音频生成问题解耦为可解释的符号生成和相对成熟的音频渲染问题,在可控性和效率上取得了显著进步,是思路清晰的“曲线救国”方案。然而,其“演奏”阶段严重依赖商用歌声合成软件VOCALOID和通用MIDI合成器FluidSynth,这使得最终音频质量的上限被锁定在这些工具的能力上,论文的“端到端”生成能力并非完全自包含,这在一定程度上削弱了其作为完全自主生成系统的创新性说服力。 🔗 开源详情 代码:提供代码仓库链接:https://github.com/WtxwNs/BACH。代码已开源。 模型权重:论文中未提及公开BACH模型的预训练权重。 数据集:论文提及所用数据集将在论文发表后开源,但当前未提供获取方式或详细说明。 Demo:论文中未提及在线演示链接。 复现材料:提供了代码仓库,包含示例。但完整的训练细节、配置文件、检查点未在论文中提供,需查阅仓库。 论文中引用的开源项目: Qwen3.0(用于歌词生成) FluidSynth(用于MIDI合成) ABC记谱法相关工具 YuE等基线模型(用于对比) 总结:代码开源是主要亮点,但完整的模型复现(尤其是获得相似性能)可能因缺乏预训练权重、具体训练参数以及依赖商业VOCALOID而存在障碍。 📌 核心摘要 问题:现有基于音频的歌曲生成方法存在可控性差、可解释性弱、计算开销大的问题。将歌曲生成视为同时学习音乐理论与演奏的“即兴表演”,任务过于复杂。 方法核心:提出“先作曲后演奏”的新范式和BACH(Bar-level AI Composing Helper)框架。核心是使用小节(bar)作为语义单元进行符号乐谱生成,再将生成的乐谱渲染为音频。 创新点:首次将小节级符号乐谱生成引入歌曲生成;提出小节流分块(bar-stream patching) 和双流预测(Dual-NTP) 方法,分别处理人声与伴奏;引入链式乐谱(Chain-of-Score) 条件化以保持长程结构一致性。 实验结果: 自动评估(表1):BACH在多个指标上达到SOTA,尤其是内容感知指标(CE、CU)和音频-文本对齐指标(CLaMP3)。其KL散度显著优于商业系统(如0.391 vs Suno的0.620)。 人类评估(图4):BACH在音乐性上超越所有开源基线(YuE、YuE-light等),并与Udio有竞争力,略逊于Suno。在可控性(图5)上,其节拍/节奏和人声伴奏平衡表现突出。 效率:在RTX 4090上生成3分钟歌曲仅需约5分钟,远快于YuE等模型。 实际意义:提供了一种高效、可控、可解释的AI歌曲生成路径,生成的乐谱可被人直接阅读和编辑,极大促进了人机协作创作。代码开源有助于推动该方向研究。 主要局限性:最终音频渲染质量受限于外部工具(VOCALOID, FluidSynth),非端到端的纯AI生成;在风格和情感控制等可控性维度上仍有提升空间;论文未公开模型权重和完整训练细节。 🏗️ 模型架构 BACH是一个三阶段的系统流水线: ...