Fine-Tuning Large Audio-Language Models with Lora for Precise Temporal Localization of Prolonged Exposure Therapy Elements

📄 Fine-Tuning Large Audio-Language Models with Lora for Precise Temporal Localization of Prolonged Exposure Therapy Elements #音频事件检测 #多模态模型 #语音生物标志物 #迁移学习 ✅ 6.5/10 | 前50% | #音频事件检测 | #多模态模型 | #语音生物标志物 #迁移学习 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Suhas BN (College of Information Sciences & Technology, The Pennsylvania State University, USA) 通讯作者:论文中未明确标注通讯作者信息。 作者列表: Suhas BN (College of Information Sciences & Technology, The Pennsylvania State University, USA) Andrew M. Sherrill (Department of Psychiatry & Behavioral Sciences, Emory University, USA) Jyoti Alaparthi (Department of Psychiatry & Behavioral Sciences, Emory University, USA) Dominik Mattioli (School of Interactive Computing, Georgia Institute of Technology, USA) Rosa I. Arriaga (School of Interactive Computing, Georgia Institute of Technology, USA) Chris W. Wiese (School of Psychology, Georgia Institute of Technology, USA) Saeed Abdullah (College of Information Sciences & Technology, The Pennsylvania State University, USA) 💡 毒舌点评 亮点:论文精准地切入了一个真实且重要的临床痛点(PE疗法评估),并设计了一套从标注(LLM+人工验证)到建模(多模态微调)再到部署(隐私保护)的完整流水线,展现了扎实的领域应用思维。 短板:实验的说服力很大程度上受限于其“自产自销”——用自己定义的任务、自己标注(尽管经过验证)的数据、自己提出的数据划分来评估自己的方法,缺乏与领域内或更通用任务上现有SOTA方法的横向比较,使得“最佳MAE 5.3秒”的优越性难以完全确立。 ...

2026-04-29

Fine-Tuning Large Multimodal Models for Automatic Pronunciation Assessment

📄 Fine-Tuning Large Multimodal Models for Automatic Pronunciation Assessment #语音评估 #语音大模型 #微调 #提示工程 #教育应用 ✅ 7.0/10 | 前50% | #语音评估 | #微调 | #语音大模型 #提示工程 学术质量 6.5/7 | 选题价值 5.0/2 | 复现加成 5.0 | 置信度 中 👥 作者与机构 第一作者:Ke Wang(微软,北京) 通讯作者:未说明 作者列表:Ke Wang(微软),Wenning Wei(微软),Yan Deng(微软),Lei He(微软),Sheng Zhao(微软) 💡 毒舌点评 亮点在于其系统性:不是简单地把LMM丢进APA任务,而是细致地对比了多粒度与单粒度、多方面与单方面的性能差异,并敏锐地捕捉到PCC与SCC的指标分化现象,为后续评估提供了更优视角。短板则在于“重锤打棉花”——用强大的LMM去解决音素级评估这个“硬骨头”,效果却依然不理想,暴露了当前LMM在处理极端细粒度音频-文本对齐任务上的根本局限,单纯靠微调似乎遇到了天花板。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开的微调后模型权重。基座模型Qwen2-Audio是公开的。 数据集:Speechocean762是公开数据集。私有数据集未公开。 Demo:未提及。 复现材料:提供了关键的训练超参数(如LoRA rank、学习率、批次大小、优化器、SimPO的β/γ/λ值)。但未提供完整的训练脚本、配置文件、检查点或详细的数据预处理/增强代码。 论文中引用的开源项目: Qwen2-Audio:作为基座模型。 LoRA:用于参数高效微调。 SimPO:用于偏好优化。 Speechocean762:作为主要训练和评估数据集。 开源计划:论文中未提及开源计划。 📌 核心摘要 要解决什么问题:评估并提升大型多模态模型(LMM)在自动发音评估(APA)任务中的性能,尤其是在处理多粒度(音素、单词、句子)和多方面(准确度、流利度、韵律等)评估时的能力。 方法核心是什么:以Qwen2-Audio-7B-Instruct作为基座模型,采用LoRA进行参数高效微调。设计了精细的提示(Prompt)以指导模型进行结构化多粒度评估。引入SimPO(一种无需参考模型的偏好优化)与交叉熵损失结合,进一步优化模型输出。 与已有方法相比新在哪里:相比于之前专注于单粒度(如句子级)或依赖外部音频编码器的方法,本研究系统性地探索了LMM在统一框架内同时处理多粒度多方面APA的能力。同时,首次在该任务中分析并强调了SCC(斯皮尔曼秩相关)作为评估指标的重要性,指出其比PCC更能反映模型预测的序一致性。 主要实验结果如何: 多粒度多方面(SO762数据集):微调后的模型在单词和句子级别评估上与商业系统(Azure PA)和专门模型(GOPT, HMamba)性能相当或更优(例如句子级流利度SCC:0.70 vs 商业系统0.62),但在音素级评估上存在明显差距(PCC 0.39 vs GOPT 0.29)。 单粒度单方面:性能显著提升,例如单词准确度PCC达0.62,句子流利度PCC达0.79,接近甚至超过部分基线。 指标分析(私有测试集):PCC可达0.9,表明线性相关性强;但SCC仅为0.6,揭示了模型在预测排序一致性上的不足。具体数据见表4。 实际意义是什么:证明了LMM经过微调可成为APA任务的有效且灵活的工具,尤其在句子和单词级别。为CALL系统的开发提供了新的技术路径,即利用一个统一的大模型处理复杂的多维度评估任务。对评估指标的讨论对APA乃至其他相关评分任务的评估体系构建有参考价值。 主要局限性是什么:LMM在音素级极细粒度评估上能力不足,这可能源于其内部表示与声学-音素对齐的天然疏离。模型性能严重依赖训练数据的质量和分布(如“完整度”分数因数据偏斜无法评估)。使用模拟偏好数据(SimPO)的提升有限。 🏗️ 模型架构 论文采用的框架基于Qwen2-Audio-7B-Instruct模型。这是一个开源的大型多模态模型,原生支持音频和文本输入。 ...

2026-04-29

FinHuBERT: Hierarchical Feature Imitating Networks for Low-Resource Speech Recognition

📄 FinHuBERT: Hierarchical Feature Imitating Networks for Low-Resource Speech Recognition #语音识别 #自监督学习 #低资源 #语音大模型 #特征学习 ✅ 7.5/10 | 前25% | #语音识别 | #自监督学习 | #低资源 #语音大模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Kavan Fatehi(约克大学计算机系) 通讯作者:未说明 作者列表:Kavan Fatehi(约克大学计算机系)、Amir Shirian(EmergeSound.AI)、Erfan Loweimi(Cisco) 💡 毒舌点评 亮点在于提出了一种巧妙的“两阶段范式”:先在毫无意义的合成噪声上预训练三个特征模仿网络(声学、韵律、语言),再将它们“嫁接”到HuBERT上,从而为低资源识别提供了强大的结构化先验。短板则是这种在噪声上预训练的泛化能力理论解释偏弱,且所有实验均在英语数据集上进行,其多语言或跨域能力完全未验证。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开预训练模型权重。 数据集:UASpeech、LibriSpeech等均为公开数据集,但论文未说明FinHuBERT是否提供自有的预训练FIN或微调模型。 Demo:未提供在线演示。 复现材料:论文提供了详细的模型架构、超参数、训练协议和评估方法,构成了一定的复现材料,但缺乏代码实现。 论文中引用的开源项目:论文中提到了使用librosa库计算MFCC,使用Praat的方法计算韵律特征(如使用其自相关法提取基频)。核心���型基于HuBERT、wav2vec 2.0等自监督学习框架。 总体开源情况:论文中未提及任何开源计划(如代码仓库、模型共享)。 📌 核心摘要 问题:自监督语音模型(如HuBERT)虽然强大,但仍需大量标注数据进行微调,这在低资源场景(如构音障碍语音识别)中难以满足。 方法核心:提出FinHuBERT,采用两阶段训练。第一阶段,独立训练三个特征模仿网络(FIN),分别用于模拟声学(MFCC)、韵律(音高/能量)和语言(音素后验概率)特征。关键创新在于这三个FIN完全在合成高斯噪声上进行预训练,无需任何语音数据。第二阶段,将预训练好的FIN集成到HuBERT的第4、8、12层,通过CCA对齐和自适应注意力加权,替换原始的随机初始化。 新意:与以往单特征模仿不同,本文提出分层、多层次的特征模仿,并首次将特征模仿网络与自监督Transformer模型深度结合。其“合成预训练”阶段将特征学习与语音建模解耦,是一种新颖的训练范式。 实验结果: 主实验:在构音障碍语音数据集UASpeech上,FinHuBERT-Large的词错误率(WER)为13.5%,显著优于HuBERT (14.9%)、WavLM (14.0%) 和 wav2vec 2.0 (14.3%)。 低资源实验:在LibriSpeech上,当仅有1小时标注数据时,FinHuBERT的相对WER比HuBERT改善了36%。 消融实验:移除任一FIN都会导致性能下降,其中移除声学FIN影响最大(WER上升2.36%);三个FIN共同作用优于简单特征拼接(13.46% vs. 14.52%)。 特征分析:FIN在合成数据上训练后,能很好地近似目标特征(MSE低,相关系数>0.92)。注意力权重分析显示模型学习到了语音学意义上的特征特化(如声学特征关注辅音,韵律特征关注短语边界)。 实际意义:为低资源和特殊人群(如构音障碍患者)的语音识别提供了一种有效方法,证明了通过结构化特征先验可以大幅减少对标注数据的依赖。 主要局限性:预训练阶段完全依赖合成噪声,其有效性背后的原因需要更深入的理论分析;方法在多语言、多任务上的泛化能力未探讨;未提供开源代码或模型。 🏗️ 模型架构 FinHuBERT采用两阶段架构,如图1所示。 ...

2026-04-29

FlashFoley: Fast Interactive Sketch2audio Generation

📄 FlashFoley: Fast Interactive Sketch2audio Generation #音频生成 #流匹配 #对抗训练 #实时处理 ✅ 7.5/10 | 前25% | #音频生成 | #流匹配 | #对抗训练 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Zachary Novack (UC San Diego; Sony Group Corporation, Japan) 通讯作者:Christian Simon† (Sony AI, USA) (论文中标注†为“Project lead”,通常可视为通讯作者) 作者列表:Zachary Novack¹,²,Koichi Saito³,Zhi Zhong²,Takashi Shibuya³,Shuyang Cui²,Julian McAuley¹,Taylor Berg-Kirkpatrick¹,Christian Simon²†,Shusuke Takahashi²,Yuki Mitsufuji²,³ ¹ UC – San Diego ² Sony Group Corporation, Japan ³ Sony AI, USA 💡 毒舌点评 亮点:这篇论文精准地切中了当前交互式音频生成工具的一个核心痛点——“精细控制”与“实时速度”不可兼得,并给出了一个工程上巧妙且相对完整的解决方案,首次将开源加速的草图到音频模型带入实时交互场景。 短板:虽然方法组合很实用,但核心的“创新”更多是已有技术(草图控制、ARC后训练、流式生成)的整合与适配,缺乏根本性的理论突破;另外,文中“开源”的承诺尚未在论文发布时兑现,这削弱了其作为“首个开源”模型的即时影响力。 ...

2026-04-29

Flexi-LoRA with Input-Adaptive Ranks: Efficient Finetuning for Speech and Reasoning Tasks

📄 Flexi-LoRA with Input-Adaptive Ranks: Efficient Finetuning for Speech and Reasoning Tasks #语音识别 #大语言模型 #参数高效微调 #动态秩适应 ✅ 7.5/10 | 前25% | #语音识别 | #参数高效微调 | #大语言模型 #动态秩适应 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zongqian Li(剑桥大学) 通讯作者:未说明 作者列表:Zongqian Li(剑桥大学)、Yixuan Su(剑桥大学)、Han Zhou(剑桥大学)、Zihao Fu(剑桥大学)、Nigel Collier(剑桥大学) 💡 毒舌点评 亮点:论文抓住了静态LoRA“一刀切”的痛点,通过一个轻量路由器实现输入感知的动态计算分配,思路清晰且实验全面,在QA、数学、语音三大任务上都跑通了,证明了方法的通用性和有效性。 短板:路由器的设计(基于池化嵌入和交叉熵分类)略显“经典”,缺乏对“输入复杂度”更深入的建模或学习,且论文更偏向经验性验证,理论层面的分析(如动态秩带来的泛化性保证)稍显不足。 🔗 开源详情 代码:论文中提供了代码仓库链接:https://github.com/ZongqianLi/Flexi-LoRA。 模型权重:未提及公开的预训练或微调模型权重。 数据集:论文中使用的数据集均为公开标准数据集(MRQA, GSM8K, LibriSpeech等)。 Demo:未提及。 复现材料:论文中描述了方法框架和主要实验设置,但未提供完整的训练脚本、超参数(如学习率、batch size、优化器)的详细配置或检查点。代码仓库可能包含更多信息。 论文中引用的开源项目:未明确提及引用的外部开源项目,但基于开源模型(LLaMA-3.2, Whisper)和标准数据集进行实验。 📌 核心摘要 这篇论文旨在解决传统LoRA微调方法中静态参数分配无法适应输入复杂度变化的问题。核心方法是提出Flexi-LoRA框架,它包含一个难度感知路由器,能根据输入的嵌入向量预测一个合适的LoRA秩(rank),并在训练和推理阶段都保持这种动态的秩分配,以实现输入自适应的参数资源分配。与已有动态秩方法(如AdaLoRA、DyLoRA)相比,Flexi-LoRA是首个在训练和推理时都保持基于路由器的样本级动态秩选择的框架,解决了先前方法在推理时使用固定秩或随机分配秩导致性能损失的问题。实验表明,在QA(MRQA)、数学推理(GSM8K等)和语音识别(LibriSpeech)任务上,Flexi-LoRA在使用显著更少参数(如QA任务仅用LoRA-8的29.59%参数)的情况下,性能持续优于静态LoRA和其他动态基线,尤其在需要严格推理链的数学任务上优势更明显。该方法的实际意义在于以一种更简洁的方式实现了类似混合专家(MoE)的“按需分配计算”效益,提升了微调的效率和性能。主要局限性在于路由机制相对简单,且论文未深入探讨动态秩选择的理论内涵。 🏗️ 模型架构 Flexi-LoRA的整体架构包含两个核心组件:一个难度感知路由器(Difficulty-aware Router) 和一个输入自适应LoRA(Input-adaptive LoRA) 模块。其工作流程如下(参考图2): ...

2026-04-29

Flexio: Flexible Single- and Multi-Channel Speech Separation and Enhancement

📄 Flexio: Flexible Single- and Multi-Channel Speech Separation and Enhancement #语音分离 #语音增强 #多通道 #麦克风阵列 #目标说话人提取 🔥 8.0/10 | 前25% | #语音分离 | #多通道 | #语音增强 #麦克风阵列 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yoshiki Masuyama (Mitsubishi Electric Research Laboratories (MERL), Cambridge, USA) 通讯作者:未说明 作者列表:Yoshiki Masuyama (MERL)、Kohei Saijo (Waseda University, Tokyo, Japan)、Francesco Paissan (University of Trento, Trento, Italy; MERL)、Jiangyu Han (Brno University of Technology, Brno, Czechia)、Marc Delcroix (NTT, Inc., Kyoto, Japan)、Ryo Aihara (MERL)、François G. Germain (MERL)、Gordon Wichern (MERL)、Jonathan Le Roux (MERL) 💡 毒舌点评 亮点: 论文提出了一个优雅的统一框架FlexIO,首次将处理可变输入(麦克风数量)和可变输出(说话人数量)的灵活性整合到一个模型中,并利用“提示向量”实现了用户可控的分离,这在实际应用中极具价值。 短板: 作者对比并测试了三种通道通信机制(TAC、Cross-channel attention、Co-attention),但对其选择缺乏深入的指导原则分析,且在某些场景下性能提升并非压倒性的,使得“哪种机制最优”的结论有些模糊。 ...

2026-04-29

FlowSE-GRPO: Training Flow Matching Speech Enhancement via Online Reinforcement Learning

📄 FlowSE-GRPO: Training Flow Matching Speech Enhancement via Online Reinforcement Learning #语音增强 #强化学习 #流匹配 #迁移学习 #基准测试 ✅ 7.5/10 | 前25% | #语音增强 | #强化学习 | #流匹配 #迁移学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(论文作者列表按顺序给出,但未明确标注第一作者) 通讯作者:未说明(论文中未提供邮箱或通讯作者标识) 作者列表:Haoxu Wang, Biao Tian, Yiheng Jiang, Zexu Pan, Shengkui Zhao, Bin Ma, Daren Chen, Xiangang Li(均隶属于 Tongyi Lab, Alibaba Group, China) 💡 毒舌点评 亮点:作为将在线强化学习(GRPO)成功应用于流匹配语音增强的开创性工作,其提出的多指标奖励优化策略巧妙地缓解了“奖励黑客”问题,且仅需少量微调步数(5k步)即获得显著提升。短板:尽管技术细节详尽,但论文对代码和模型开源的完全沉默,大大削弱了其结果的可验证性和社区快速跟进的可能性;同时,多指标权重需精细调优也暴露了当前策略的脆弱性。 🔗 开源详情 根据论文内容,总结开源情况如下: 代码:论文中未提及任何代码仓库链接或开源计划。 模型权重:未提及是否公开预训练或后训练的模型权重。 数据集:使用了多个公开数据集(DNS2020, LibriTTS, WHAM!等),但论文未提供整合后的训练集获取方式。 Demo:未提及在线演示。 复现材料:论文提供了非常详细的训练配置、模型结构、超参数设置(如DiT维度、层数、LoRA参数、学习率、窗口训练设置等)以及消融实验设置,这些信息对复现至关重要。 论文中引用的开源项目:明确提到了使用预训练的HiFi-GAN声码器(来自CosyVoice2)和DiT架构。 📌 核心摘要 本文旨在解决将在线强化学习(RL)有效应用于生成式语音增强(SE)模型后训练的难题。其方法核心是首次将组相对策略优化(GRPO)成功集成到基于流匹配(Flow Matching)的语音增强框架中,通过将确定性常微分方程(ODE)采样转换为随机微分方程(SDE)采样来引入RL所需的随机性,并设计了针对连续语音信号的损失函数。与以往使用离线方法(如DPO)或仅应用于离散Token的方法相比,本文创新性地实现了在线、无需修改原始架构的GRPO训练。主要实验结果表明,在DNS2020测试集上,与基线模型相比,所提多指标优化模型在无回声测试集上将整体质量(OVRL)从3.373提升至3.549(+0.176),说话人相似度从88.88%提升至90.43%,并显著减少了奖励黑客现象。该研究的实际意义在于为生成式音频模型的后训练提供了高效、实用的在线RL对齐方案。主要局限性在于多指标权重需人工调整,且论文未提供开源代码。 ...

2026-04-29

FOCA: Multimodal Malware Classification via Hyperbolic Cross-Attention

📄 FOCA: Multimodal Malware Classification via Hyperbolic Cross-Attention #音频分类 #多模态模型 #恶意软件检测 #双曲神经网络 #跨模态融合 ✅ 7.5/10 | 前25% | #音频分类 | #多模态模型 | #恶意软件检测 #双曲神经网络 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Nitin Choudhury (印度信息技术学院德里分校, IIIT-Delhi), Bikrant Bikram Pratap Maurya (印度信息技术学院德里分校, IIIT-Delhi) (论文指出两位作者贡献相等,共同作为第一作者) 通讯作者:Orchid Chetia Phukan (orchidp@iiitd.ac.in) (印度信息技术学院德里分校, IIIT-Delhi) 作者列表:Nitin Choudhury (IIIT-Delhi), Bikrant Bikram Pratap Maurya (IIIT-Delhi), Orchid Chetia Phukan (IIIT-Delhi), Arun Balaji Buduru (IIIT-Delhi) 💡 毒舌点评 亮点:首次将双曲空间和双曲交叉注意力机制引入多模态恶意软件分类,为融合具有潜在层次关系的模态数据提供了新颖且理论优雅的解决方案,实验结果也确实证明了其有效性。短板:论文虽展示了性能提升,但对于“音频模态编码细粒度字节特征,视觉模态捕获高层空间结构”这一层次假设的实证分析不足,且双曲计算带来的额外开销与性能收益的权衡讨论缺失。 ...

2026-04-29

FocalCodec-Stream: Streaming Low-Bitrate Speech Coding via Causal Distillation

📄 FocalCodec-Stream: Streaming Low-Bitrate Speech Coding via Causal Distillation #语音编码 #流式处理 #知识蒸馏 #语音大模型 #低资源 🔥 8.0/10 | 前25% | #语音编码 | #知识蒸馏 | #流式处理 #语音大模型 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Luca Della Libera(Concordia University, Mila-Quebec AI Institute) 通讯作者:未说明 作者列表:Luca Della Libera(Concordia University, Mila-Quebec AI Institute),Cem Subakan(Universit´e Laval, Concordia University, Mila-Quebec AI Institute),Mirco Ravanelli(Concordia University, Mila-Quebec AI Institute) 💡 毒舌点评 本文巧妙地将非流式的WavLM“蒸”成一个能实时处理的语音编码器,通过多阶段训练和一个轻巧的“精修工”模块,在80毫秒的低延迟下实现了比肩甚至超越同类流式编解码器的音质和下游性能,堪称工程实践的典范。不过,为了塞进WavLM这个大块头,模型参数量几乎翻倍(249M vs. 142M),其在资源受限设备上的部署可能是个挑战,且多语言泛化能力虽优于部分基线,但仍有明显下滑。 ...

2026-04-29

FODGE : High-Fidelity Dance Generation via Full-Body Optimization

📄 FODGE : High-Fidelity Dance Generation via Full-Body Optimization #音频生成 #扩散模型 #全身优化 ✅ 6.5/10 | 前50% | #音频生成 | #扩散模型 | #全身优化 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Xiaoying Huang(中国传媒大学信息与通信工程学院) 通讯作者:Long Ye(中国传媒大学数据科学与媒体智能学院, 媒体融合与传播国家重点实验室) 作者列表:Xiaoying Huang(中国传媒大学信息与通信工程学院)、Sanyi Zhang(中国传媒大学数据科学与媒体智能学院, 媒体音视频教育部重点实验室)、Qin Zhang(媒体音视频教育部重点实验室)、Xiaoxuan Guo(中国传媒大学信息与通信工程学院)、Long Ye(中国传媒大学数据科学与媒体智能学院, 媒体融合与传播国家重点实验室) 💡 毒舌点评 论文的亮点在于清晰地指出了现有方法将“滑步”一律视为错误的问题,并通过设计优雅的FRB模块来区分和保留艺术性滑步,同时将约束从脚部拓展至全身,实验效果显著。短板在于其核心生成架构(两阶段Transformer扩散网络)几乎是LODGE的复用,创新更多体现在“约束”和“后处理”上,属于针对特定问题的工程优化而非范式突破,且完全未开源。 🔗 开源详情 代码:论文中未提及代码链接。项目主页(https://yccccm.github.io/FODGE-page/)在论文撰写时尚未确认是否包含代码仓库。 模型权重:未提及公开权重。 数据集:使用的是公开的FineDance数据集,但论文未说明获取方式(通常可从原数据集作者处获取)。 Demo:未提及在线演示。 复现材料:论文提供了一些训练细节(如优化器、学习率、GPU型号、训练时长),但未提供完整的配置文件、检查点或附录说明。 论文中引用的开源项目:引用了Librosa用于音频特征提取,SMPL用于人体模型表示。 📌 核心摘要 要解决什么问题:现有音乐驱动的舞蹈生成方法在追求物理真实性时(如消除滑步),会错误地抑制舞蹈中固有的艺术性滑步(如太空步),同时忽视了手臂穿透等局部不自然问题,损害了生成舞蹈的艺术表现力。 方法核心是什么:提出FODGE框架,包含两部分:(1) Full-body Refinement Block (FRB):在扩散模型训练时引入,通过学习脚部滑动与手臂运动的相关性作为优化线索,联合约束四肢动作,以消除手臂穿透等伪影并保留艺术滑步。(2) Full-body Optimization Post-processing module (FOP):一个免训练的后处理模块,在推理后对整个序列进行校正,包括修正段落衔接不连续、基于物理先验调整全局根轨迹以缓解滑步,以及约束头部旋转至生理合理范围。 ...

2026-04-29