BACHI: Boundary-Aware Symbolic Chord Recognition Through Masked Iterative Decoding on POP and Classical Music

📄 BACHI: Boundary-Aware Symbolic Chord Recognition Through Masked Iterative Decoding on POP and Classical Music #音乐信息检索 #符号音乐 #迭代解码 #Transformer #数据集 ✅ 7.5/10 | 前25% | #音乐信息检索 | #迭代解码 | #符号音乐 #Transformer 学术质量 7.0/7 | 选题价值 7.5/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Mingyang Yao(加州大学圣地亚哥分校) 通讯作者:未说明 作者列表:Mingyang Yao(加州大学圣地亚哥分校)、Ke Chen(加州大学圣地亚哥分校)、Shlomo Dubnov(加州大学圣地亚哥分校)、Taylor Berg-Kirkpatrick(加州大学圣地亚哥分校) 💡 毒舌点评 亮点:模型设计精巧地融合了“边界检测”与“模仿人类耳练的置信度排序解码”两个直觉,在提升性能的同时也为模型决策提供了可解释性(如古典与流行音乐预测顺序的差异)。短板:研究高度聚焦于符号音乐的钢琴编曲场景,对更复杂的乐队总谱或电子音乐等格式的适用性未做探讨,限制了其普适性。此外,在流行音乐上相比SOTA提升微乎其微,创新带来的边际效益在该风格上不明显。 📌 核心摘要 问题:现有符号(乐谱)和弦识别(ACR)研究面临两大挑战:一是缺乏高质量、大规模标注的符号音乐数据集;二是现有模型方法未充分考虑并模拟人类音乐分析的渐进过程。 方法核心:提出BACHI模型,将和弦识别分解为两步:(1) 边界检测:使用Transformer编码器预测和弦变化点,并通过特征线性调制(FiLM)将边界信息注入到上下文表示中;(2) 置信度引导的迭代解码:使用一个Transformer解码器,迭代地填充被遮蔽的和弦元素(根音、性质、低音),每一步都优先选择当前置信度最高的元素进行预测。 创新点:与先前方法(如直接预测完整和弦标签或使用固定顺序解码)相比,BACHI引入了显式的边界感知模块和灵活的、数据驱动的迭代解码顺序,更贴合人类和弦分析的思维方式。 主要实验结果:在古典音乐(DCML+WiR)和新发布的流行音乐(POP909-CL)数据集上,BACHI在全和弦准确率(Full Chord Accuracy)上均取得了最佳性能。古典音乐:BACHI(68.1%)相比最佳基线(Harmony Transformer v2的62.1%)提升了6.0个百分点。流行音乐:BACHI(82.4%)与Harmony Transformer v2(82.2%)相当,但优于其他基线。消融实验证明了边界检测(BD)和迭代解码(ID)模块的贡献。 实际意义:提供了更可靠的流行音乐和弦标注数据集(POP909-CL),并为符号MIR任务(如音乐分析、和弦条件音乐生成、音乐教育)提供了更强的基础模型。 主要局限性:模型目前仅在钢琴编曲的符号音乐上验证,对更复杂的多声部、多乐器总谱的适用性未知;在流行音乐上相对SOTA的提升有限;其性能上限仍受制于符号音乐数据总量和标注一致性。 🏗️ 模型架构 BACHI是一个两阶段的深度学习模型,整体流程如图1所示。 ...

2026-04-29

DiTSE: High-Fidelity Generative Speech Enhancement via Latent Diffusion Transformers

📄 DiTSE: High-Fidelity Generative Speech Enhancement via Latent Diffusion Transformers #语音增强 #扩散模型 #Transformer #高保真音频 🔥 8.5/10 | 前10% | #语音增强 | #扩散模型 | #Transformer #高保真音频 学术质量 8.5/7 | 选题价值 8.0/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Heitor R. Guimarães (INRS-EMT, Université du Québec, Montréal, Canada) 通讯作者:未明确说明(根据作者顺序和单位,通常最后一位或带有†标记的作者可能是通讯作者,但论文中未明确标注) 作者列表: Heitor R. Guimarães(INRS-EMT, Université du Québec, Montréal, Canada;其工作在Adobe Research实习期间完成) Jiaqi Su(Adobe Research, San Francisco, California, United States) Rithesh Kumar(Adobe Research, San Francisco, California, United States) Tiago H. Falk(INRS-EMT, Université du Québec, Montréal, Canada) Zeyu Jin(Adobe Research, San Francisco, California, United States) 💡 毒舌点评 亮点:该工作首次在主观评测中将语音增强的输出质量提升至与真实录音棚录音(DAPS数据集)“无法区分”的水平(MOS 4.34 vs. 4.30),这是生成式语音增强领域一个重要的里程碑。 短板:模型(335M参数)相比多数基线更庞大,且依赖32步的扩散采样,实时性可能受限,其“高保真”优势在资源受限场景下的实用性有待考量;此外,尽管使用了离散编解码器进行后处理,但核心的连续潜在空间扩散仍面临VAE重建瓶颈(如VBD数据集上VAE重建分数低于原生48kHz音频)。 ...

2026-04-29

FD-ARL: Feature Disentanglement with Adversarial-Reconstruction Learning for Cross-Subject Auditory Attention Decoding

📄 FD-ARL: Feature Disentanglement with Adversarial-Reconstruction Learning for Cross-Subject Auditory Attention Decoding #听觉注意力解码 #领域适应 #Transformer #脑电信号 ✅ 7.5/10 | 前10% | #听觉注意力解码 | #领域适应 | #Transformer #脑电信号 学术质量 8.0/7 | 选题价值 8.5/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Yuan Liao(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院) 通讯作者:Siqi Cai(哈尔滨工业大学(深圳)智能科学与工程学院) 作者列表:Yuan Liao(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院)、Haoqi Hu(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院)、Siqi Cai(哈尔滨工业大学(深圳)智能科学与工程学院)、Haizhou Li(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院) 💡 毒舌点评 亮点:论文精准地抓住了跨被试脑电解码的核心痛点——“个体差异”与“任务相关性”的纠缠,并提出了一个逻辑自洽的“解耦”框架(特征拆分+对抗抹除身份+重建保留信息),实验上也取得了扎实的性能提升。短板:重建损失的具体作用机制(是防止信息丢失还是隐式正则化)讨论不足,且仅验证了跨被试泛化,未涉及跨范式(如噪声环境、听觉刺激参数变化)的泛化,限制了其结论的普遍性。 📌 核心摘要 问题:基于脑电图(EEG)的听觉注意力解码(AAD)模型在跨被试场景下泛化性能差,主要原因是个体间脑电信号差异大,且现有方法难以提取与任务相关且与个体无关的鲁棒特征。 方法核心:提出FD-ARL框架。首先用并行时空Transformer编码器提取EEG特征。然后,将特征解耦为任务相关码(ztask)和特定于被试的码(zsubj)。最后,通过对抗训练(利用梯度反转层)迫使ztask对被试身份不变,同时通过重建损失确保解耦过程保留关键信息。 创新点:这是首次将双分支Transformer与对抗-重建解耦方案相结合用于EEG-AAD。与传统领域对抗网络(DANN)不同,它不是将整个特征强制对齐,而是显式地分离出应保持不变的任务特征和应被忽略的个体特征。 主要实验结果:在KUL和DTU两个公开数据集上,采用严格的留一被试交叉验证(LOSO-CV)。FD-ARL在所有条件下均达到了最佳性能。例如,在KUL数据集2秒窗口下,准确率达74.6%,比此前最优的DARNet(71.9%)高出2.7个百分点。消融实验证明了每个模块(对抗、重建、时空分支)的贡献。 实际意义:该工作为解决BCI和神经辅助设备中的跨用户泛化问题提供了有效方案,推动了听觉注意力解码技术向实用化迈进。 主要局限性:研究仅聚焦于跨被试泛化,未探讨模型在更复杂声学环境(如高噪声、不同空间布局)下的鲁棒性;重建损失的具体作用机制可以进一步剖析;实验仅限于特定数据集的二分类(左/右)任务,结论的普适性有待更广泛验证。 🏗️ 模型架构 FD-ARL的整体架构(图1)分为两个阶段:并行时空特征编码和特征解耦与学习。 并行时空编码器: 输入:原始EEG信号 X ∈ R^{B×C×T},其中B是批量大小,C是通道数(64),T是时间点数。 时空特征嵌入: 时间分支:使用多尺度卷积层将输入转换为P个时间块,得到时间嵌入 E_T ∈ R^{B×P×D}。 空间分支:使用独立的轻量级卷积网络为每个通道生成一个独特的令牌嵌入,得到空间嵌入 E_S ∈ R^{B×C×D}。 上下文编码与融合:为嵌入添加可学习的位置编码。然后,分别通过两个独立的Transformer编码器处理,得到上下文表示 F_T 和 F_S。通过全局平均池化将时间表示汇总为向量 f_t,通过注意力加权求和将空间表示汇总为向量 f_s。将两者拼接并通过非线性投影,得到最终的融合特征表示 f'_{fused} ∈ R^{B×2D}。 特征解耦模块: 解耦:将融合特征向量直接拆分为两半,得到任务相关码 z_{task} ∈ R^{B×D} 和被试特异码 z_{subject} ∈ R^{B×D}。 联合优化框架:通过三个损失函数约束这两个码: 任务分类损失 (L_task):使用任务分类器 C_y 基于 z_{task} 进行分类,确保其判别性。 对抗不变性损失 (L_domain):使用领域分类器 C_d 基于经过梯度反转层(GRL) 的 z_{task} 预测被试标签。GRL反转梯度,迫使 z_{task} 变得对被试身份不可区分。 重建保真度损失 (L_recon):使用解码器从完整的 f'_{fused} 重建原始EEG信号 X,使用MSE损失,确保解耦过程不丢失关键信息。 最终损失为加权和:L_total = L_task + λL_domain + βL_recon,其中λ动态增加,β固定为0.5。 ...

2026-04-29

Improving Audio Event Recognition with Consistency Regularization

📄 Improving Audio Event Recognition with Consistency Regularization #音频事件检测 #数据增强 #自监督学习 #Transformer #低资源 ✅ 7.0/10 | 前25% | #音频事件检测 | #数据增强 | #自监督学习 #Transformer 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Shanmuka Sadhu (Rutgers University, Dept. of Computer Science) 通讯作者:未明确标注,但从单位排序和邮箱推测,Weiran Wang可能为指导作者。 作者列表:Shanmuka Sadhu(Rutgers University, Dept. of Computer Science)、Weiran Wang(University of Iowa, Dept. of Computer Science) 💡 毒舌点评 亮点: 论文将一致性正则化从语音识别成功迁移到音频事件识别,并通过极其扎实的消融研究(针对不同数据集规模、不同增强策略、不同损失系数)系统地验证了方法的有效性和边界条件,实验部分工作量饱满,结论可靠。 短板: 核心方法(CR)并非原创,迁移痕迹较重,创新性主要体现在应用领域和实验验证的广度上,缺乏对“为何CR在音频事件识别上有效”的更深层机制探讨或理论分析。 📌 核心摘要 问题: 音频事件识别(AER)任务中,如何进一步提升模型泛化能力,尤其是在标注数据有限(如20k样本)或半监督场景下。 ...

2026-04-29

Mambaformer: State-Space Augmented Self-Attention with Downup Sampling for Monaural Speech Enhancement

📄 Mambaformer: State-Space Augmented Self-Attention with Downup Sampling for Monaural Speech Enhancement #语音增强 #状态空间模型 #Transformer #双路径模型 #时频分析 ✅ 7.0/10 | 前25% | #语音增强 | #状态空间模型 | #Transformer #双路径模型 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表:Shengkui Zhao, Haoxu Wang, Zexu Pan, Yiheng Jiang, Biao Tian, Bin Ma, Xiangang Li (阿里巴巴通义实验室,新加坡) 💡 毒舌点评 这篇论文在工程集成上确实下足了功夫,将Mamba、Conformer、ZipFormer等多种组件巧妙地缝合在一个双路径框架里,最终在标准测试集上刷新了指标。然而,其核心创新更偏向于“有效的组合技”而非“范式革新”,更像是对现有技术模块进行了一次成功的超参调优和工程排列组合,略显缺乏令人眼前一亮的原创思想火花。 📌 核心摘要 这篇论文要解决的是单通道语音增强任务中,如何更有效地结合Transformer的全局建模能力和状态空间模型(SSM)的高效序列处理能力的问题。 方法核心是提出了MambaFormer模型,它在一个双路径(时间-频率)框架内,将Mamba模块嵌入到Transformer的自注意力机制中,并辅以Conformer卷积和对称的降采样/上采样结构。 与已有方法相比,新在三个方面:1)首次在SE任务中将Mamba与自注意力深度融合,而非简单堆叠;2)设计了双层自注意力结构并共享注意力权重以提升效率;3)采用了可学习的下采样/上采样模块来平衡计算效率与表征保真度。 主要实验结果:在VoiceBank+DEMAND测试集上,其MambaFormer (M)模型取得了3.69的PESQ得分;在DNS Challenge 2020测试集上取得了3.82的PESQ得分,均报告为新的最先进水平。关键对比数据见下表: 模型 VoiceBank+DEMAND PESQ DNS2020 PESQ 参数量(M) ZipEnhancer (S) 3.63 3.69 2.04 MambaFormer (S) 3.66 3.75 2.14 MambaFormer (M) 3.69 3.82 9.04 实际意义在于验证了SSM与Transformer协同工作的有效性,为语音增强模型设计提供了新的模块化组合思路。主要局限性在于:1)创新更多是组合与适配,原创性有限;2)论文未提供代码和模型权重,复现性未验证;3)虽然提出了新的SOTA,但与基线的绝对提升幅度并不巨大。 ...

2026-04-29

Multi-Task Transformer for Explainable Speech Deepfake Detection via Formant Modeling

📄 Multi-Task Transformer for Explainable Speech Deepfake Detection via Formant Modeling #语音伪造检测 #多任务学习 #Transformer #音频安全 ✅ 7.5/10 | 前25% | #语音伪造检测 | #多任务学习 | #Transformer #音频安全 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Viola Negroni (Politecnico di Milano, 意大利米兰理工大学电子、信息与生物工程系) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Viola Negroni (Politecnico di Milano), Luca Cuccovillo† (Fraunhofer IDMT), Paolo Bestagini (Politecnico di Milano), Patrick Aichroth† (Fraunhofer IDMT), Stefano Tubaro (Politecnico di Milano)。 和 † 对应其所属机构。 💡 毒舌点评 这篇论文的亮点在于其“设计即解释”的思路,通过引入共振峰预测和发声区域检测作为辅助任务,让模型决策过程更具物理意义,而非纯粹的黑箱分类。然而,其短板也十分明显:与自身前代模型的对比固然重要,但若想在领域内立足,缺少与 AASIST、RawNet2 等经典基线的直接较量,说服力难免打折扣;更致命的是,全文只字未提开源计划,让“可复现性”在实践中沦为一句空话。 ...

2026-04-29

ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer

📄 ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer #语音生成 #动作生成 #音频生成 #Transformer #生成模型 ✅ 7.0/10 | 前25% | #音频生成 | #Transformer | #语音生成 #动作生成 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Yong Xie(南京理工大学) (注:论文标注为* equal contribution) 通讯作者:Yunlian Sun(南京理工大学) (注:论文标注为† corresponding author) 作者列表:Yong Xie(南京理工大学)、Yunlian Sun(南京理工大学)、Hongwen Zhang(北京师范大学)、Yebin Liu(清华大学)、Jinhui Tang(南京林业大学) 💡 毒舌点评 本文的亮点在于将ViT架构巧妙适配于动作序列生成,并通过引入“动态嵌入正则化(DER)”和“迭代重建推理(IRI)”等策略,显著提升了生成动作的流畅度和真实感(FGD降低86.7%),实验设计也较为周全。但其短板也明显:核心创新更多是有效的工程优化组合而非底层理论突破,且严重的开源缺失(无代码、无模型、细节模糊)极大限制了工作的可复现性和后续影响力,让“SOTA”声明的说服力打了折扣。 📌 核心摘要 问题:现有语音驱动手势生成方法存在生成动作保真度不足(如抖动、动作僵硬、穿模)以及跨领域泛化能力弱的问题,影响用户体验。 方法核心:提出ReCoM框架,其核心是Recurrent Embedded Transformer (RET) 模块。RET在Vision Transformer (ViT)基础上,通过通道式(Channel-wise)处理 将身体和手部动作视为特征图的两个通道,从而实现对语音-动作时空依赖性的联合建模。 创新点:(1) RET模块设计,适配ViT处理动作序列;(2) 训练时引入动态嵌入正则化(DER),即在嵌入层后应用Dropout以增强鲁棒性和泛化性;(3) 提出迭代重建推理(IRI) 策略,通过循环预测并筛选置信度高的动作索引,以缓解自回归推理的误差累积问题。 实验结果:在SHOW数据集上,ReCoM的Fr´echet Gesture Distance (FGD) 从基线ProbTalk的18.70降至2.48(如表3),提升了86.7%,表明动作真实性大幅提高。在域外BEAT2数据集测试(无微调)中,其FGD(96.78)也优于ProbTalk(100.07)和TalkSHOW(98.32),显示了更好的泛化性(如表4)。消融实验(表2)证实了CFG、IRI、DER、EMA和Masking等各策略的有效性。 实际意义:为虚拟数字人、智能交互机器人等提供更自然、更真实的手势动画生成方案。 主要局限性:(1) 模型架构本身并非全新提出,是对现有ViT的改进应用;(2) 仅在SHOW和BEAT2两个数据集上进行评估,广泛性待验证;(3) 缺乏开源代码和模型,阻碍复现与公平比较。 🏗️ 模型架构 ReCoM采用两阶段流程(如图1、图2): ...

2026-04-29

RIR-Former: Coordinate-Guided Transformer for Continuous Reconstruction of Room Impulse Responses

📄 RIR-Former: Coordinate-Guided Transformer for Continuous Reconstruction of Room Impulse Responses #房间脉冲响应 #麦克风阵列 #空间音频 #Transformer ✅ 7.0/10 | 前25% | #房间脉冲响应 | #Transformer | #麦克风阵列 #空间音频 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Shaoheng Xu (The Australian National University) 和 Chunyi Sun (The Australian National University)(论文中注明共同第一作者) 通讯作者:未说明 作者列表:Shaoheng Xu (The Australian National University), Chunyi Sun (The Australian National University), Jihui (Aimee) Zhang (The University of Queensland & The Australian National University), Prasanga Samarasinghe (The Australian National University), Thushara Abhayapala (The Australian National University) 💡 毒舌点评 本文巧妙地将Transformer架构与正弦位置编码结合,用于解决无网格的RIR连续重建问题,是一个清晰、有效的工程化方案;然而,实验仅限于仿真数据和相对规则的线性阵列场景,距离论文声称的“复杂阵列几何、动态场景及真实世界环境”还有很长的路要走,其泛化能力的实际说服力有待进一步验证。 ...

2026-04-29

SIREN: Spatially-Informed Reconstruction of Binaural Audio with Vision

📄 SIREN: Spatially-Informed Reconstruction of Binaural Audio with Vision #空间音频 #音视频 #Transformer ✅ 7.0/10 | 前25% | #空间音频 | #音视频 | #Transformer 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Mingyeong Song (Ewha Womans University, Seoul, Korea),Seoyeon Ko (Ewha Womans University, Seoul, Korea) (论文标注两人贡献相等) 通讯作者:未说明 作者列表:Mingyeong Song (Ewha Womans University, Seoul, Korea), Seoyeon Ko (Ewha Womans University, Seoul, Korea), Junhyug Noh (Ewha Womans University, Seoul, Korea) 💡 毒舌点评 SIREN巧妙地将Transformer的注意力机制“一分为二”,用作左右声道的空间特征调制器,思路清晰且免去了手工设计掩模的麻烦,是本文最亮眼的工程巧思。然而,论文的论证主要停留在客观指标的“分数游戏”上,缺乏一个关键环节:听众到底能不能真的听出区别?没有主观MOS测试,很难断言那些STFT或相位距离的提升能带来感知上的空间感增强。此外,方法的“自信融合”听起来很美,但其核心假设(单声道一致性和相位一致性)在复杂动态场景下的鲁棒性未见深入讨论。 ...

2026-04-29

Transformer-Based Rhythm Quantization of Performance MIDI Using Beat Annotations

📄 Transformer-Based Rhythm Quantization of Performance MIDI Using Beat Annotations #音乐信息检索 #Transformer #数据增强 #模型评估 🔥 8.0/10 | 前25% | #音乐信息检索 | #Transformer | #数据增强 #模型评估 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Maximilian Wachter(未说明) 通讯作者:未说明 作者列表:Maximilian Wachter(未说明), Sebastian Murgul(未说明), Michael Heizmann(未说明) 💡 毒舌点评 本文最大的亮点在于思路的简洁与高效:通过将节拍信息作为先验“喂”给Transformer,巧妙地规避了让模型同时学习节拍检测和量化这两个相互耦合的难题,取得了显著的性能提升。主要短板在于模型的通用性和可扩展性尚未得到充分验证——模型目前处理的音符时值范围有限(最大为全音符),且在未见过的复杂拍号(如6/8)上的处理仍需依赖启发式预处理,这与论文声称的“灵活框架”尚有差距。 📌 核心摘要 解决的问题:将人类演奏的、具有时间偏差的MIDI数据,准确量化为可读的乐谱表示(确定音符的精确节拍位置和时值)。传统方法往往需要同时推断节拍和量化,或依赖端到端模型隐式处理,难以利用已知的、准确的节拍信息(如节拍器数据)。 方法核心:提出一个基于精简T5 Transformer架构的序列到序列模型。其输入是经过预处理的、将节拍信息(12个子拍)与音符时间对齐后的“预量化”MIDI音符序列;输出是标准乐谱表示(MusicXML格式)的音符序列。模型通过监督学习,直接预测每个音符的精确节拍位置(Onset)和音符时值(Note Value)。 与已有方法相比新在哪里:这是首次明确将先验的、准确的节拍标注(而非模型预测的节拍)作为核心输入用于节奏量化。与端到端模型(如[2])相比,它提供了更高的灵活性和可解释性;与传统概率模型(如HMM)相比,它利用Transformer的注意力机制更擅长捕捉长距离节奏模式,并能通过数据增强获得更好的泛化能力。 主要实验结果: 核心指标:在ASAP数据集(钢琴)上,起始点F1分数达到97.3%,音符时值准确率达到83.3%。 跨节拍泛化:在仅用4/4拍训练的情况下,模型在2/4和3/4拍测试集上也表现良好,如在2/4拍上起始点F1为96.7%。用多节拍数据训练可进一步提升所有节拍的性能。 跨乐器适应:在吉他数据集(Leduc)上进行领域适应后,专用模型在吉他测试集上的起始点F1和音符时值准确率分别达到92.1% 和 90.2%,显著优于使用钢琴数据预训练的模型。 与SOTA比较:采用MUSTER指标与多种基线对比,在onset-time error rate (ε_onset) 上取得了最佳结果 12.30,优于端到端模型PM2S (15.55) 和其他传统方法。 模型/方法 ε_onset ε_offset Neural Beat Tracking [16] 68.28 54.11 End-to-End PM2S [2] 15.55 23.84 HMMs + Heuristics (J-Pop) [27] 25.02 29.21 HMMs + Heuristics (classical) [27] 22.58 29.84 MuseScore [21] 47.90 49.44 Finale [18] 31.85 45.34 本文模型 12.30 28.30 实际意义:为自动乐谱生成、音乐编辑、数字化乐谱档案建设提供了一个更精确、可靠的量化工具。尤其适用于有精确节拍信息(如录制时有节拍器)的演奏,或能获得高质量节拍估计的场景。 主要局限性:1) 当前模型支持的最大音符时值为全音符,且词汇表固定,对更复杂的现代音乐符号(如三十二分音符、不规则拍号)支持不足;2) 模型假设输入输出音符一一对应,无法处理演奏中的错音或漏音;3) 未公开代码和模型权重,限制了社区的快速验证与应用。 🏗️ 模型架构 模型的整体架构是一个基于Transformer的序列到序列(Seq2Seq)模型,具体流程如下: ...

2026-04-27