Text2midi-InferAlign: Improving Symbolic Music Generation with Inference-Time Alignment

📄 Text2midi-InferAlign: Improving Symbolic Music Generation with Inference-Time Alignment #音乐生成 #强化学习 #文本到音乐 #自回归模型 #大语言模型 ✅ 7.5/10 | 前25% | #音乐生成 | #强化学习 | #文本到音乐 #自回归模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Abhinaba Roy (新加坡科技设计大学) 通讯作者:未明确说明,从致谢和贡献看,Dorien Herremans或Geeta Puri可能为通讯作者,但论文中未明确标注。 作者列表:Abhinaba Roy (新加坡科技设计大学)、Geeta Puri (新加坡科技设计大学)、Dorien Herremans (新加坡科技设计大学) 💡 毒舌点评 本文巧妙地将大语言模型领域成熟的“推理时对齐”范式跨界应用到符号音乐生成,通过精心设计的奖励函数(文本-音频一致性+调性一致性)引导搜索,无需重训模型即可显著提升生成质量,尤其是对自由文本描述的适应性(2.6:1偏好),思路清晰且实用。不过,其核心贡献更像是一次“优秀的系统集成与工程优化”,在音乐生成的深层理论或全新架构上并未突破;奖励函数的设计(如固定权重)以及对“音乐性”的衡量仍依赖于CLAP等外部模型和调性规则,可能限制了其捕捉更复杂、更人性化音乐美学的能力。 📌 核心摘要 解决的问题:现有端到端文本到MIDI生成模型(如Text2midi)在推理时,生成的符号音乐在语义上与输入文本对齐不足,且常出现破坏音乐结构性(如调性不协和)的问题。 方法核心:提出Text2midi-InferAlign,一种无需重训练的推理时对齐框架。将生成过程建模为奖励引导的树搜索,交替进行“探索”(使用LLM对原始标题进行变异以扩展搜索空间)和“利用”(基于两个奖励函数:CLAP衡量文本-音频一致性,调性检查衡量和声一致性,对候选序列进行排序和替换)。 创新之处:首次将基于奖励的推理时对齐技术应用于符号音乐生成;设计并验证了针对语义和结构完整性的互补奖励函数;引入标题变异机制以促进生成多样性。 主要实验结果:在MidiCaps测试集上,相比基线Text2midi模型,所有客观指标均有提升,其中CLAP分数提升31.8%,速度(TB)提升32.5%。主观听音测试中,68.75%的听众认为其音乐质量更优。消融实验显示,变异数T=5、替换周期m=100时效果较优。 实际意义:提供了一种即插即用的增强模块,可提升任意自回归音乐生成模型的输出质量与可控性,推动更实用的AI音乐创作工具发展。 主要局限性:性能提升高度依赖奖励函数的设计和外部模型(如CLAP)的质量;对于包含丰富音乐细节的标题(如MidiCaps),探索空间受限,提升幅度有限;推理时间略有增加(约7%)。 🏗️ 模型架构 本论文未提出新的生成模型架构,而是提出了一个推理时优化框架,应用于现有的自回归MIDI生成模型(以Text2midi为例)。整体流程如图1所示。 核心流程与组件: ...

2026-04-29