AudioGen-Omni: A Unified Multimodal Diffusion Transformer for Video-Synchronized Audio, Speech, and Song Generation

📄 AudioGen-Omni: A Unified Multimodal Diffusion Transformer for Video-Synchronized Audio, Speech, and Song Generation #音频生成 #语音合成 #多模态模型 #扩散模型 #统一音频模型 ✅ 7.5/10 | 前25% | #音频生成 | #多模态模型 | #语音合成 #扩散模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Le Wang(中国矿业大学,徐州) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Le Wang(中国矿业大学)、Jun Wang(快手科技,Kling AI)、Chunyu Qiang(快手科技,Kling AI)、Feng Deng(快手科技,Kling AI)、Chen Zhang(快手科技,Kling AI)、Kun Gai(快手科技,Kling AI) 💡 毒舌点评 亮点:这篇论文的野心很大,试图用一个统一的“全家桶”模型解决视频到音频、语音、歌曲的生成,并且通过全面的实验确实做到了在多个任务上刷榜,证明了其架构设计的有效性。 短板:然而,论文对视频输入的强依赖像一根“拐杖”,限制了其在无视频场景下的应用,而号称的“统一”框架在代码和模型完全黑箱的情况下,其宣称的优越性和可复现性都要打上一个问号。 📌 核心摘要 解决的问题:现有视频到音频(包括音效、语音、音乐)的生成方法大多任务特定、模型碎片化,且跨模态(如唇音同步)对齐效果不佳,限制了通用性和生成质量。 方法核心:提出AudioGen-Omni,一个基于多模态扩散变换器(MM-DiT)的统一框架。其核心是引入了“歌词-转录编码器”,将音素/字素映射为帧级稠密表示;并设计了“相位对齐各向异性位置注入(PAAPI)”,在注意力机制中对视频、音频、转录文本等有时序结构的模态选择性地应用旋转位置编码,以实现精细的跨模态同步。 创新点:a) 首个能同时处理音频、语音、歌曲生成的统一多模态条件生成框架;b) 提出了无需音素时长监督的歌词转录编码模块;c) PAAPI机制增强了细粒度的时序对齐。与先前工作不同,它解冻了所有模态并采用掩码输入策略,增强了灵活性。 主要实验结果:在VGGSound音频生成测试集上,其FD指标(PaSST 58.77, PANNs 6.29)优于MMAudio等基线(见表1)。在LRS3/LRS2语音生成测试中,其UTMOS(3.982/3.842)和DNSMOS(3.782/3.767)得分甚至超过真实语音,WER也大幅降低(17.56%/17.75%)(见表2)。在说话人相似度(SECS)评估中,其GE2E和VoxSim分数均高于其他方法(见表3)。模型能在1.91秒内生成8秒音频。 实际意义:为多媒体内容创作提供了一个高效、高质量的统一音频生成工具,有望简化视频后期制作流程,增强虚拟人物、游戏、社交媒体的音频沉浸感。 主要局限性:模型依赖视频输入,当无视觉信息时应用受限;论文未开源代码和模型,限制了社区复现和二次开发;虽能生成歌曲,但对复杂音乐结构的控制能力未深入展示。 🏗️ 模型架构 AudioGen-Omni是一个端到端的多模态扩散变换器,旨在根据可选的视频和文本输入,生成同步的音频、语音或歌曲。 ...

2026-04-29

AUV: Teaching Audio Universal Vector Quantization with Single Nested Codebook

📄 AUV: Teaching Audio Universal Vector Quantization with Single Nested Codebook #音频生成 #统一音频模型 #知识蒸馏 #自监督学习 🔥 8.0/10 | 前25% | #音频生成 | #知识蒸馏 | #统一音频模型 #自监督学习 学术质量 5.5/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yushen Chen (上海交通大学X-LANCE实验室, MoE人工智能重点实验室, 江苏省语言计算重点实验室, SCS;上海创新研究院) 通讯作者:Xie Chen (上海交通大学X-LANCE实验室, MoE人工智能重点实验室, 江苏省语言计算重点实验室, SCS;上海创新研究院) 作者列表:Yushen Chen(上海交通大学X-LANCE实验室, MoE人工智能重点实验室, 江苏省语言计算重点实验室, SCS;上海创新研究院)、Kai Hu(腾讯混元)、Long Zhou(腾讯混元)、Shulin Feng(腾讯混元)、Xusheng Yang(北京大学,深圳)、Hangting Chen(腾讯混元)、Xie Chen(上海交通大学X-LANCE实验室, MoE人工智能重点实验室, 江苏省语言计算重点实验室, SCS;上海创新研究院) 💡 毒舌点评 亮点是嵌套码本(Matryoshka Codebook)设计巧妙,将领域先验以一种灵活、可学习的方式注入单一码本,避免了复杂多阶段训练和域切换难题。短板在于“统一”模型在语音重建的关键指标(如PESQ)上仍稍逊于领域专用模型(如BigCodec),且论文未公开完整的训练数据与硬件配置,对工业级复现构成挑战。 📌 核心摘要 问题:现有的神经音频编解码器要么是领域专用的(语音、音乐等分开训练),要么在使用单一码本实现统一音频表示时,面临重建质量不佳、训练流程复杂、处理混合域音频能力弱等问题。 方法核心:提出AUV,一个采用单一嵌套码本的统一神经音频编解码器。其核心是设计一个“俄罗斯套娃”式(Matryoshka)的嵌套码本,为语音、人声、音乐、声音等不同领域分配重叠的索引区间作为弱先验。同时,利用多个领域的预训练教师模型(如WavLM、MuQ、BEATs)对学生编解码器进行知识蒸馏,以注入丰富的语义信息,所有训练在单阶段完成。 新意:AUV是首个将嵌套码本设计和多领域教师蒸馏相结合,用于实现统一单码本音频表示的方法。与之前工作(如UniCodec的刚性分割码本和多阶段训练)相比,它更灵活、更高效,且能自然处理混合域音频。 主要实验结果:在语音重建(LibriSpeech test-clean)上,AUV(WER 3.64, SPK-SIM 0.81)与BigCodec(WER 3.63, SPK-SIM 0.84)等专用模型表现相当,并显著优于UniCodec(WER 3.78)。在音乐和声音重建上,AUV的Audiobox Aesthetics各项得分全面超越UniCodec(例如,音乐CE: 5.90 vs 5.06)。消融实验证实了嵌套码本和多领域蒸馏对重建和生成质量的提升。 实际意义:AUV为语音、音乐、声音等多领域提供了一个统一的离散表示基础,有望简化下游音频大模型(如TTS、音频生成)的训练,并能高效处理现实世界中的混合音频内容。 局限性:在极低比特率下的重建保真度仍有提升空间;统一模型在个别语音指标上与最强专用模型仍有微小差距;训练数据的具体细节和获取方式未完全公开。 🏗️ 模型架构 AUV的整体架构为编码器-量化器-解码器(Encoder-Quantizer-Decoder)。 ...

2026-04-29

Hierarchical Activity Recognition and Captioning from Long-Form Audio

📄 Hierarchical Activity Recognition and Captioning from Long-Form Audio #音频事件检测 #音频分类 #多任务学习 #预训练 #统一音频模型 ✅ 7.5/10 | 前25% | #音频事件检测 | #多任务学习 | #音频分类 #预训练 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Peng Zhang(萨里大学视觉、语音与信号处理中心 CVSSP) 通讯作者:未说明 作者列表:Peng Zhang(萨里大学CVSSP)、Qingyu Luo(萨里大学CVSSP)、Philip J.B. Jackson(萨里大学CVSSP)、Wenwu Wang(萨里大学CVSSP) 💡 毒舌点评 这篇论文的亮点在于它像一个严谨的“包工头”,为“长音频层级理解”这个新工地(MultiAct数据集)和一套标准施工流程(统一层级模型)打了样,实验全面且开源承诺明确。短板则是所用的砖瓦(模型组件)多为现有库存,施工方法(框架创新)更偏向于系统集成而非原创性突破,面对复杂长程依赖时,模型表现仍有明显瓶颈(如序列预测的误差随上下文增长)。 📌 核心摘要 要解决的问题:现有音频理解研究大多局限于短片段和孤立事件,缺乏对真实世界长音频中具有层次化(活动-子活动-事件)和序列化结构的复杂人类活动的理解。 方法核心:提出MultiAct新数据集,包含带有多层级时间标注和双粒度文本描述的长音频;并设计一个统一的层级模型框架,联合处理层级分类、检测、序列预测和多分辨率字幕生成任务。 与已有方法相比新在哪里:主要新在任务定义和数据资源上。MultiAct是首个提供长时程、三层级语义标注及配对描述的音频数据集。模型框架旨在统一解决上述多个层级化任务,而非针对单一任务。 主要实验结果: 层级分类任务:在评估集上,活动分类Top-1准确率达83.3%,子活动分类最佳Top-1为51.3%。 检测任务:子活动检测的平均AP在IoU@0.5时为22.0%,事件检测为12.5%,揭示了边界定位的挑战。 序列预测任务:使用CTC的Conformer模型,在训练上下文长度为2时AER最低(验证集66.7%),随上下文变长误差上升。 字幕生成任务:层级模型在大多数指标上优于基于规则的基线,例如在评估集的高阶摘要任务中,ROUGE-L从20.7提升至28.3,CIDEr从2.2提升至11.1。 实际意义:为长音频的层级结构理解研究建立了基准,推动了从孤立事件识别到复杂活动理解的研究范式转变,其建模思路可应用于监控、智能家居等领域。 主要局限性:模型在处理长程依赖(如长序列预测)和精确边界定位(检测任务中高IoU性能下降)方面仍存在挑战;模型架构缺乏核心原创性;数据集规模(~9小时)和场景多样性(厨房)有待扩充。 🏗️ 模型架构 论文提出的统一层级框架(见图2)包含三个主要组件,协同工作以处理长音频的层级理解和生成任务。 ...

2026-04-29

InstructAudio: Unified Speech and Music Generation with Natural Language Instruction

📄 InstructAudio: Unified Speech and Music Generation with Natural Language Instruction #语音合成 #音乐生成 #扩散模型 #多任务学习 #统一音频模型 ✅ 7.5/10 | 前25% | #语音合成 | #扩散模型 | #音乐生成 #多任务学习 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Chunyu Qiang(天津大学,快手科技) 通讯作者:Longbiao Wang(天津大学) 作者列表:Chunyu Qiang(天津大学,快手科技),Kang Yin(快手科技),Xiaopeng Wang(快手科技),Yuzhe Liang(快手科技),Jiahui Zhao(天津大学),Ruibo Fu(中国科学院自动化研究所),Tianrui Wang(天津大学),Cheng Gong(天津大学),Chen Zhang(快手科技),Longbiao Wang†(天津大学),Jianwu Dang(天津大学) 💡 毒舌点评 这篇论文的最大亮点在于其“野心”——试图用一个统一的框架和自然语言指令,同时搞定语音合成(TTS)和音乐生成(TTM)这两个本就差异显著的任务,这在思路上确实领先。但短板也很明显:论文在展示音乐生成对比结果时,坦诚其5-20秒的生成长度可能对长时序模型不公平,这种实验设计的局限性削弱了结论的说服力;更关键的是,论文几乎未提供任何可复现的开源信息,这对于一个宣称“统一框架”的工作而言,是个不小的遗憾。 📌 核心摘要 问题:现有的文本转语音(TTS)和文本转音乐(TTM)系统在基于指令(自然语言描述)的控制方面存在显著局限。TTS模型通常依赖参考音频控制音色,属性控制能力有限;TTM模型则依赖专业标注,且两类任务长期独立开发,难以统一建模。 方法核心:提出InstructAudio,一个基于多模态扩散Transformer(MM-DiT)和条件流匹配的统一框架。它采用标准化的“指令-音素”输入格式,通过联合和单一扩散Transformer层,处理无噪的梅尔VAE潜在表示,从而在统一模型中实现语音和音乐的生成与控制。 新意:这是首个通过自然语言指令统一控制语音和音乐生成的框架。它消除了对参考音频的依赖,能通过文本指令控制音色(性别、年龄)、副语言(情感、风格、口音)和音乐(类型、乐器、节奏、氛围)等多种属性,并支持双说话人对话生成。 主要实验结果: TTS任务:在Seed-TTS基准的WER指标上,InstructAudio在可控条件下达到了最佳的英文(1.52%)和中文(1.35%)错误率(见表1)。在指令控制任务上,其分类控制准确率(如性别100%、年龄86.67%、对话90%)和说话人/情感相似度均优于强基线CosyVoice2,且在LSD、MCD等失真指标上更优(见表2)。 TTM任务:在SongEval音乐评估基准的所有指标(连贯性、音乐性等)上均取得最佳分数。在分类控制准确率上,于歌手性别(98.89%)、年龄(97.22%)和氛围(95.00%)控制上表现突出(见表3)。 综合对比:论文通过图1可视化比较,声称在多项指标上实现了TTS和TTM能力的全面领先。 实际意义:为内容创作(如生成带有特定情感和风格的旁白或背景音乐)、交互式媒体、娱乐等领域提供了一种更通用、交互更自然的音频内容生成工具,降低了专业音频制作的门槛。 主要局限性:1) 统一输入格式(纯文本指令)导致了“一对多”的映射歧义,可能牺牲了生成音频的自然度和质量(NMOS分数低于使用参考音频的基线);2) 为了联合建模,将音乐生成长度限制在5-20秒,限制了其在长时音乐生成场景的应用,并且对基线模型的评估可能不公平;3) 论文未提供开源代码、模型或数据,可复现性低。 InstructAudio整体架构示意图(图2)。 ...

2026-04-29

STACodec: Semantic Token Assignment for Balancing Acoustic Fidelity and Semantic Information in Audio Codecs

📄 STACodec: Semantic Token Assignment for Balancing Acoustic Fidelity and Semantic Information in Audio Codecs #语音识别 #语音合成 #统一音频模型 #知识蒸馏 #自监督学习 🔥 8.0/10 | 前25% | #语音识别 | #知识蒸馏 | #语音合成 #统一音频模型 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:论文中未明确标注“第一作者”,但作者列表顺序为Kaiyuan Zhang, Mohan Shi,且标注“*Equal contribution”,故推测为共同第一作者。 通讯作者:论文中未明确标注通讯作者信息。 作者列表:Kaiyuan Zhang (UCLA 电气与计算机工程系), Mohan Shi (UCLA 电气与计算机工程系), Eray Eren (UCLA 电气与计算机工程系), Natarajan Balaji Shankar (UCLA 电气与计算机工程系), Zilai Wang (UCLA 电气与计算机工程系), Abeer Alwan (UCLA 电气与计算机工程系)。 💡 毒舌点评 这篇论文巧妙地将离散语义Token作为“向导”直接赋值给RVQ第一层,而非强行用语义损失去扭曲声学码本空间,这种“各司其职”的设计思路确实高明,有效解决了困扰先前方法的重建质量与语义性能的零和博弈。然而,其提出的“语义预蒸馏”(SPD)变体在性能上出现了全面且明显的下滑(如ASR WER从9.35%退化到15.39%),这暴露出自回归预测离散Token的难度,也说明论文在“效率”与“性能”的权衡上,目前给出的解决方案仍显笨重,更像一个折中的工程妥协。 ...

2026-04-29

UniSonate: A Unified Model for Speech, Music, and Sound Effect Generation with Text Instructions

📄 UniSonate: A Unified Model for Speech, Music, and Sound Effect Generation with Text Instructions #音频生成 #流匹配 #扩散模型 #统一音频模型 #语音合成 🔥 8.5/10 | 前25% | #音频生成 | #流匹配 | #扩散模型 #统一音频模型 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Chunyu Qiang(天津大学, 快手科技) 通讯作者:Longbiao Wang(天津大学), Jianwu Dang(天津大学) 作者列表:Chunyu Qiang(天津大学, 快手科技)、Xiaopeng Wang(快手科技)、Kang Yin(快手科技)、Yuzhe Liang(快手科技)、Yuxin Guo(快手科技, 中国科学院自动化研究所)、Teng Ma(快手科技)、Ziyu Zhang(快手科技)、Tianrui Wang(天津大学)、Cheng Gong(天津大学)、Yushen Chen(快手科技)、Ruibo Fu(中国科学院自动化研究所)、Chen Zhang(快手科技)、Longbiao Wang(天津大学)、Jianwu Dang(天津大学) 💡 毒舌点评 亮点:论文真正实现了语音、音乐、音效的“三合一”生成,且通过精巧的“动态token注入”和“课程学习”让这个庞然大物不仅能跑,还在语音和音乐的主流评测中刷出了新SOTA,证明了“团结就是力量”。 短板:在音效生成这个“混沌领域”,这个统一模型还是打不过那些专精于此的专门模型(如GenAU-L),并且论文未开源代码和模型,让其优秀的实验结论暂时停留在了“可看不可摸”的阶段。 ...

2026-04-27

Reducing the Offline-Streaming Gap for Unified ASR Transducer with Consistency Regularization

📄 Reducing the Offline-Streaming Gap for Unified ASR Transducer with Consistency Regularization #语音识别 #端到端 #流式处理 #统一音频模型 #模型评估 ✅ 7.5/10 | 前25% | #语音识别 | #端到端 | #流式处理 #统一音频模型 | arxiv 学术质量 7.5/7 | 选题价值 0.8/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:Andrei Andrusenko (NVIDIA, Armenia) 通讯作者:未说明 作者列表: Andrei Andrusenko (NVIDIA, Armenia) Vladimir Bataev (NVIDIA, Armenia) Lilit Grigoryan (NVIDIA, Armenia) Nune Tadevosyan (NVIDIA, Armenia) Vitaly Lavrukhin (NVIDIA, Armenia) Boris Ginsburg (NVIDIA, USA) 💡 毒舌点评 亮点:MCR-RNNT正则化方法设计巧妙,通过强制离线和流式模式在RNNT联合网络输出层面保持一致,有效缓解了低延迟下的性能崩塌,且其实现的Triton内核保证了训练效率。短板:尽管在多个延迟点上取得了SOTA,但在极端低延迟(如0.16s)场景下,统一模型仍略逊于专门为流式优化的基线,表明“统一”与“极致性能”之间仍存在根本性张力。 ...

2026-04-23

UAF: A Unified Audio Front-end LLM for Full-Duplex Speech Interaction

📄 UAF: A Unified Audio Front-end LLM for Full-Duplex Speech Interaction #语音对话系统 #统一音频模型 #流式处理 #音视频 🔥 评分:9.0/10 | arxiv 👥 作者与机构 第一作者:Yadong Li (adonlee.lyd@alibaba-inc.com) 通讯作者:Biye Li (libiye.lby@alibaba-inc.com) 其他作者:Guoxin Wu (guoxin.wgx@taobao.com), Haiping Hou (houhaiping.hhp@taobao.com) 所属机构:阿里巴巴集团 (Alibaba Inc.) 💡 毒舌点评 亮点:这篇论文最“性感”的地方在于它极具野心的“大一统”思想——把语音交互前端那些乱七八糟的独立模块(VAD、ASR、说话人识别…)全部塞进一个LLM里,还用个参考音频当“声纹钥匙”,想法非常超前且直击级联系统的痛点。 槽点:工程“黑盒”感有点强,比如那个600ms的音频块具体怎么切分、参考音频的注册和注意力机制如何在流式推理中高效运作,细节不够透明,让人担心实际部署时的复杂度和计算开销。 📌 核心摘要 核心贡献:本文提出了首个专为全双工语音交互设计的统一音频前端大模型(UAF)。它打破了传统级联式前端处理的范式,将语音活动检测(VAD)、说话人识别(SR)、自动语音识别(ASR)、轮次检测(TD)和问答(QA)等多个任务,统一建模为一个自回归序列预测问题。 关键方法:模型采用“音频编码器-投影器-LLM”架构。输入为流式的固定时长(600ms)音频块和一个用于锁定目标说话人的参考音频提示。输出为两类离散令牌:状态令牌(如<TALK>, <SIL>, <Complete>, <Interrupt>)用于交互控制;语义令牌(ASR文本和模型回复)。通过多阶段对齐训练策略,模型学会了在噪声和混叠语音环境中,基于参考音频隐式地抑制干扰、聚焦目标说话人,并联合预测语义内容和交互状态。 主要发现:实验表明,UAF在多项独立前端任务上达到SOTA水平。其最大优势体现在说话人感知ASR上:在极低信噪比(2dB)条件下,WER相比强大的基线模型(Qwen3-Omni)降低了7倍以上(5.34 vs 38.6)。在轮次检测任务上,对<Interrupt>和<Backchannel>等关键交互状态的识别准确率显著优于专用模型,证明了统一建模对理解对话动态的有效性。 实际意义与局限性:UAF为构建低延迟、高鲁棒性、交互自然的全双工语音系统提供了全新的、一体化的解决方案,有望简化系统架构并提升用户体验。其局限性包括:模型参数量较大(30B-A3B),对计算资源要求高;训练严重依赖大规模的合成数据管道,其真实世界泛化能力需进一步验证;论文未开源,限制了社区的复现与跟进。 🏗️ 模型架构 UAF的整体架构是一个适配了音频能力的“编码器-投影器-大语言模型”框架,核心是将音频流与文本生成统一在自回归解码过程中。 完整输入输出流程: 输入: 参考音频 (A_ref):一段3-5秒的目标说话人纯净语音,用于注册说话人身份。 系统提示 (System Prompt):定义任务和输出格式的文本指令。 流式音频块 (A_stream):连续的、固定时长为600毫秒的音频片段序列 {a_1, a_2, ..., a_t}。这些音频块可能包含目标说话人语音、噪声、混响、其他说话人语音以及系统回声。 编码与投影: 参考音频和每一个流式音频块都通过同一个音频编码器(文中未指定具体结构,但应为预训练模型)转换为高维声学特征向量。 这些声学特征向量随后通过一个音频投影器(一个可训练的神经网络层)映射到LLM的语义嵌入空间,得到对齐后的音频令牌 a_ref 和 a_t。 自回归解码: LLM骨干网络(基于Qwen3-Omni-30B-A3B-Instruct)接收一个拼接的序列作为输入:[System Prompt, a_ref, a_1, [x_1; s_1], a_2, [x_2; s_2], ..., a_t]。其中 [x_i; s_i] 表示第i个时间步生成的语义令牌和状态令牌。 LLM根据历史上下文(所有之前的音频令牌和生成的令牌)进行解码,在当前时间步t,它需要预测两部分: 状态令牌 (s_t):由两个独立的轻量级任务头从LLM的隐藏状态h_t中预测。 VAD头:输出 <SIL> 或 <TALK>,表示当前音频块是否包含目标说话人的有效语音活动。 轮次头 (Turn Head):输出 <Complete>, <InComplete>, <Interrupt>, <Backchannel> 中的一个,表示对话轮次状态。 语义令牌 (x_t):由LLM主干的语言模型头 (LM Head) 预测。仅当轮次状态为<Complete>或<Interrupt>时,模型才会生成包含<AsrStart>…<AsrEnd>的ASR结果,以及可能的<AnswerStart>…<AnswerEnd>的回复。 输出:在每个时间步t,模型输出一个包含状态令牌和(可能的)语义令牌的序列,用于驱动下游的对话管理系统和语音合成系统。 关键组件与设计理由: ...

2026-04-22

Beyond Transcription: Unified Audio Schema for Perception-Aware AudioLLMs

📄 Beyond Transcription: Unified Audio Schema for Perception-Aware AudioLLMs #音频理解 #统一音频模型 #强化学习 #音频大模型 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Linhao Zhang(腾讯微信AI,基础模型技术中心) 通讯作者:推断为 Houfeng Wang(北京大学计算机科学学院,多媒体信息处理国家重点实验室)和 Xiao Zhou(腾讯微信AI,基础模型技术中心),基于资深作者位置及实验室负责人身份。 其他作者: Yuhan Song(北京大学计算机科学学院,多媒体信息处理国家重点实验室) Aiwei Liu(腾讯微信AI,基础模型技术中心) Chuhan Wu(腾讯微信AI,基础模型技术中心) Sijun Zhang(腾讯微信AI,基础模型技术中心) Wei Jia(腾讯微信AI,基础模型技术中心) Yuan Liu(腾讯微信AI,基础模型技术中心) 💡 毒舌点评 亮点:这篇论文精准地抓住了当前音频大模型“高推理、低感知”的痛点,并一针见血地指出病根在于ASR(语音识别)的“填鸭式”教学——只教认字,不教听话。他们提出的“统一音频模式”就像给模型配了一副“助听器”,强制它去听语气、听环境,效果立竿见影。 槽点:方法虽好,但“药方”(训练数据)全靠其他模型“合成”,虽然做了人工验证,但终究是“二手信息”,长期来看可能限制模型感知能力的上限。另外,论文主要在高资源语言(中英文)上验证,对于方言或低资源语言的效果还是个问号。 📌 核心摘要 这篇论文旨在解决当前音频大语言模型(AudioLLMs)在细粒度声学感知任务上表现不佳的核心问题。作者指出,主流的以自动语音识别(ASR)为中心的训练范式,通过将音频映射到纯文本转录,系统性地丢弃了副语言学(如情感、语调)和非语言声学事件信息,导致模型成为“语言巨人,听觉矮子”。为此,他们提出了一种统一音频模式(UAS),这是一种结构化的JSON表示,将音频信息显式分解为“转录”、“副语言学”和“非语言事件”三个部分,从而在训练中保留完整的声学线索。基于UAS,作者构建了可扩展的自动数据生成流水线,并训练了UAS-Audio模型。实验表明,UAS-Audio在MMSU基准的感知任务上取得了**10.9%**的绝对性能提升,同时保持了强大的推理能力,并在多个音频理解与生成基准上达到领先水平。该研究证明了通过结构化监督来丰富训练信号,是提升AudioLLMs综合能力的有效途径。 🏗️ 模型架构 UAS-Audio的整体架构遵循当前主流的连续表示AudioLLM范式,包含四个核心组件,其输入输出流程如下: 输入:原始音频波形。 输出:文本(如转录、问答、结构化UAS)或生成的语音波形。 核心组件与数据流: 音频编码器:使用AuT (Audio Transformer) 作为连续音频编码器。它将原始波形转换为连续的音频表示向量序列。 投影层:一个简单的线性投影层。它将音频编码器输出的向量映射到与大语言模型(LLM)词嵌入空间对齐的维度。这是连接音频与文本模态的关键桥梁。 大语言模型骨干:采用Qwen2.5-7B作为核心推理引擎。它接收来自投影层的音频特征和文本提示的嵌入,进行自回归解码,生成文本响应。在训练的某些阶段,LLM也被扩展以处理离散音频令牌。 语音解码器:基于流匹配(Flow Matching)架构,并配备HiFi-GAN声码器。当需要语音生成时,LLM输出的离散音频令牌(来自StableToken)被送入此解码器,先转换为梅尔频谱图,再合成最终波形。 训练阶段与模块状态: 阶段1:离散令牌对齐:仅训练LLM的嵌入层和输出头,通过ASR和TTS任务,让LLM学会处理离散音频代码,为语音生成做准备。 阶段2:音频LLM适应:冻结LLM和音频编码器,仅训练投影层。使用UAS标注数据进行训练,使模型从一开始就建立对结构化声学信息的理解。 阶段3:全指令调优:解冻除音频编码器外的所有参数。在混合数据(基础音频数据、UAS标注、UAS-QA)上进行多任务训练,综合提升感知、推理和生成能力。 阶段4:GRPO:使用群体相对策略优化(GRPO) 进行强化学习,进一步提升模型性能。 架构选择理由:该设计复用了经过验证的成熟组件(如Qwen2.5、流匹配解码器),创新点不在于模块本身,而在于如何使用UAS数据来训练这些模块,特别是通过阶段2的针对性适应,避免了模型陷入传统的ASR中心表征。 💡 核心创新点 问题归因创新:明确指出AudioLLMs感知能力薄弱的系统性根源是ASR中心训练范式。该范式在优化语义对齐的同时,隐式地将副语言学和环境声学信息视为“噪声”进行抑制,造成了感知盲区。 监督框架创新:提出统一音频模式(UAS) 作为一个结构化的、全面的监督框架。它将音频信息显式分解为“转录”、“副语言学”(年龄、性别、情感等6个子字段)和“非语言事件”(描述、离散事件、连续事件),迫使模型学习并保留这些通常被忽略的声学维度。 数据工程创新:设计了一个可扩展的、自动化的UAS数据生成流水线。该流水线分三阶段:1)用现成的音频描述模型生成丰富字幕;2)用LLM将字幕与真实转录结合,合成为结构化UAS;3)通过本体约束、转录完整性校验等多级自动化验证确保数据质量。这使得利用现有海量ASR数据集构建感知丰富的训练数据成为可能。 训练策略创新:在训练流程中,专门设计了阶段2(音频LLM适应),在冻结主干的情况下仅用UAS数据训练投影层。这确保了模型在接触复杂任务前,其跨模态对齐的“接口”就已建立在感知丰富的表征之上,而非需要后续“纠偏”的ASR表征。 🔬 细节详述 训练数据: 规模:总计使用了数十万小时的音频数据,约90%为开源数据,10%为内部数据。 主要开源数据集:包括LibriSpeech (960h)、多语言LibriSpeech (27,322h)、GigaSpeech (10,000h)、Yodas (29,155h)、Emilia (96,750h)、AudioSet (4,922h)等,覆盖语音、音乐、环境声。 UAS数据生成:使用Qwen3-30B-A3B-Instruct模型进行字幕到UAS格式的转换,使用Qwen3-235B-A22B-Instruct模型生成UAS-QA对。 损失函数:论文未明确提及特殊的损失函数,主要阶段(1-3)采用标准的自回归交叉熵损失进行序列预测。阶段4的GRPO是一种强化学习策略优化方法。 训练策略与超参数: 优化器:AdamW (β₁=0.9, β₂=0.95),权重衰减为0.1。 学习率调度:采用余弦衰减并带线性预热。 各阶段学习率:阶段1峰值5e-4,阶段2峰值2e-4,阶段3峰值1e-4,阶段4峰值5e-6。 预热步数:阶段1为500步,阶段2和3为1000步,阶段4为200步。 梯度裁剪:1.0。 可训练参数:阶段1和2仅训练投影层;阶段3训练除音频编码器外的所有参数;阶段4同阶段3。 推理细节: 灵活生成:推理时不强制生成完整UAS JSON。支持目标模式(如直接问答)和整体模式(生成完整UAS),用户可通过提示词控制。 语音生成:使用训练好的离散音频令牌和流匹配解码器进行自回归语音合成。 数据增强/正则化:未特别提及,主要依赖大规模数据混合和多任务学习作为隐式正则化。 📊 实验结果 主要指标对比(MMSU, MMAR, MMAU基准): 模型 MMSU MMAR MMAU 平均 感知 推理 总体 语音 离散架构 GLM-4-Voice 11.04 16.16 13.30 34.35 UAS-Audio-D 31.32 48.55 39.66 44.56 连续架构 Kimi-Audio 44.8 75.7 59.8 58.5 Qwen2.5-Omni 42.7 77.6 58.1 59.9 Step-Audio2 42.9 73.2 57.6 61.2 UAS-Audio 55.7 77.4 66.2 66.0 关键发现: ...

2026-04-19

On the Distillation Loss Functions of Speech VAE for Unified Reconstruction, Understanding, and Generation

📄 On the Distillation Loss Functions of Speech VAE for Unified Reconstruction, Understanding, and Generation #知识蒸馏 #自监督学习 #统一音频模型 #音频理解 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Changhao Cheng (上海交通大学,人工智能学院) 通讯作者:Yanmin Qian (上海交通大学,人工智能学院;听觉认知与计算声学实验室,教育部人工智能重点实验室) (推断,基于其资深作者身份及实验室负责人角色) 其他作者: Wei Wang (上海交通大学,人工智能学院) Wangyou Zhang (上海交通大学,计算机科学学院,听觉认知与计算声学实验室,教育部人工智能重点实验室) Dongya Jia (上海交通大学,人工智能学院) Jian Wu (字节跳动 Seed) Zhuo Chen (上海交通大学,人工智能学院) 💡 毒舌点评 亮点在于它像一个严谨的“调音师”,系统性地探索了语音VAE蒸馏损失的“调音旋钮”(时间轴、维度轴、联合边际),并找到了让重建、理解、生成这三个“声部”和谐共奏的新配方(JMAS-VAE)。槽点则是这“新配方”的调制过程有点复杂,引入的自适应权重和边际参数增加了训���和调参的“玄学”成分,且实验结论高度依赖于所选的教师模型(WavLM),换一个“老师”可能结论又得重写。 📌 核心摘要 本文针对现有语音变分自编码器(VAE)在统一语音重建、理解和生成任务上表现不平衡的问题(尤其是理解能力差),系统性地研究了蒸馏损失函数的设计空间。作者探索了三种将自监督学习(SSL)模型知识蒸馏到VAE潜在空间的方式:时间轴对齐(TAS)、维度轴对齐(DAS)和联合边际对齐(JMAS)。关键创新在于提出了JMAS损失,它不仅进行逐帧对齐,还通过边际余弦相似度和边际距离序列相似度损失来约束特征分布的结构一致性。此外,论文引入了基于梯度范数的自适应加权策略来动态平衡各项损失。大量实验表明,采用自适应加权的JMAS-VAE在重建、理解和生成三项任务的综合得分上取得了最优平衡,显著优于传统VAE和仅进行时间轴对齐的语义VAE。研究揭示了不同对齐方式对语义和声学信息保留的偏向性,为设计统一的语音表示提供了重要见解。 🏗️ 模型架构 该论文的核心是训练一个语音VAE模型,其架构基于 stable-audio-tools 框架。 整体流程:输入为原始语音波形,经过编码器下采样和潜在空间表示,再通过解码器重建语音波形。核心创新在于训练过程中,VAE的潜在表示会通过一个额外的投影层与一个预训练的语音SSL模型(WavLM Large)的中间特征进行对齐(蒸馏)。 主要组件: 编码器:采用DAC(Descript Audio Codec)编码器架构。输入语音信号经过一系列下采样操作(因子为{4,4,5,5}),最终得到一个64维、帧率为40Hz的连续潜在表示 z。 MLP投影层:一个线性层,将64维的潜在表示 z 投影到1024维,得到 z'。这个 z' 将用于与SSL特征进行对齐。 教师模型:使用预训练的 WavLM Large 模型。提取其第23层的特征作为蒸馏目标 f。该特征维度也为1024维,与 z' 对齐。 解码器:采用BigVGAN解码器,将潜在表示 z 上采样并重建为原始波形。 数据流:原始波形 → DAC编码器 → 潜在表示 z (64维) → MLP投影 → z' (1024维)。训练时,z' 与WavLM特征 f 计算蒸馏损失;同时,z 送入BigVGAN解码器进行重建。推理时,只需编码器和解码器。 设计理由:使用DAC和BigVGAN是因其在音频生成领域的有效性。将潜在空间与强大的SSL模型(WavLM)对齐,旨在注入丰富的语义和声学结构信息,弥补VAE自身在理解任务上的不足。 💡 核心创新点 联合边际对齐蒸馏损失(JMAS Loss): ...

2026-04-19