📄 Discrete Token Modeling for Multi-Stem Music Source Separation with Language Models #音乐分离, #自回归模型, #大语言模型, #音频大模型
✅ 评分:7.0/10 | arxiv
👥 作者与机构 第一作者/通讯作者:彭博吕 (Pengbo Lyu) (阿里巴巴通义应用业务组,中国) 其他作者: 赵翔宇 (Xiangyu Zhao) (阿里巴巴通义应用业务组,中国) 刘成伟 (Chengwei Liu) (阿里巴巴通义应用业务组,中国) 闫浩音 (Haoyin Yan) (阿里巴巴通义应用业务组,中国) 梁晓涛 (Xiaotao Liang) (阿里巴巴通义应用业务组,中国) 王宏宇 (Hongyu Wang) (阿里巴巴通义应用业务组,中国) 薛少飞 (Shaofei Xue) (推断,根据邮箱mullerxue@126.com,可能为独立研究者或与阿里巴巴合作) 💡 毒舌点评 亮点:成功把“分离”这个传统的“信号复原”问题,包装成了“生成”问题,用上了时髦的大语言模型,思路清奇,算是在音频领域给LLM找到了一个新“乐子”。 槽点:处理鼓点这种“快准狠”的声音还是不行,暴露了自回归模型“慢工出细活”的本质短板;更尴尬的是,训练用的“标准答案”(伪标签)还是隔壁BS-RoFormer模型生成的,有种“用老师教学生,还怪学生超不过老师”的黑色幽默。
📌 核心摘要 本文提出了一种用于多轨音乐源分离的生成式框架,其核心创新在于将分离任务重新定义为条件离散令牌生成问题。传统方法直接在时频域估计连续信号,而本文方法首先利用HCodec神经音频编解码器将音频波形转换为离散的声学与语义令牌序列。然后,一个基于Conformer的条件编码器从混合音频中提取特征,作为解码器-only大语言模型(LLaMA架构) 的条件前缀。该语言模型以自回归的方式,按照固定顺序(人声、鼓、贝斯、其他)依次生成四个目标轨道的令牌序列,最后由HCodec解码器重构为波形。在MUSDB18-HQ基准上的实验表明,该生成方法在整体感知质量(ViSQOL)上接近顶尖的判别式方法(如BS-RoFormer),并且在人声轨道的NISQA感知质量评分上取得了最高分(2.50)。消融研究证实了可学习Conformer编码器和顺序跨轨道生成策略的有效性。然而,该方法在处理具有尖锐瞬态的鼓组时性能存在差距,且依赖于其他模型的伪标签进行训练,这限制了其性能上限。
🏗️ 模型架构 该框架是一个端到端的条件生成系统,包含三大核心组件,其完整流程如下:
输入:48kHz单声道混合音频波形 x_mix。 条件特征提取: 组件:基于Conformer的条件编码器。 流程:首先对 x_mix 进行STFT(FFT大小2048,跳跃长度960),计算120维的log-Mel频谱图 M。然后,M 被送入一个8层、12头注意力、深度卷积核大小为31的Conformer编码器,并使用旋转位置嵌入。输出为混合特征 F_mix,最后通过一个线性适配器层投影至语言模型的隐藏维度。 作用:为语言模型提供关于混合音频的紧凑、高层次的条件表示。 离散音频令牌化: 组件:双路径神经音频编解码器 HCodec(参数冻结)。 流程:HCodec包含声学路径(处理STFT频谱)和语义路径(处理冻结的HuBERT特征),两者均输出12.5Hz帧率的特征。每个路径独立使用16层、码本大小为1024的残差矢量量化(RVQ)进行量化,分别得到声学令牌 c^a 和语义令牌 c^s。为便于语言建模,两者沿时间轴交织:[c0^a, c0^s, c1^a, c1^s, ...]。 作用:将连续音频波形转换为离散的令牌序列,这是生成式建模的基础。 自回归令牌生成: 组件:基于LLaMA架构的解码器-only Transformer(16层,16头注意力,隐藏维度2048)。 输入序列:x = [<mix>, F_mix, S, c^(1), S, c^(2), S, c^(3), S, c^(4)]。其中 <mix> 是起始标记,S 是每个轨道共享的开始令牌,c^(k) 是第k个轨道的交织令牌序列。轨道顺序固定为:人声、鼓、贝斯、其他。 输出序列:y = [c^(1), E, c^(2), E, c^(3), E, c^(4), E]。E 是共享的结束令牌,用于分隔轨道。 作用:语言模型学习在给定混合条件 F_mix 和已生成令牌的历史 y_<t 的条件下,预测下一个令牌 y_t 的概率分布。通过自回归方式,模型在单次前向传播中顺序生成所有四个轨道的令牌。 输出重构:生成的离散令牌序列被解交织回声学和语义令牌,然后送入冻结的HCodec解码器,重构出四个分离的音频波形。 关键设计选择理由:
...