Talker-T2AV: Joint Talking Audio-Video Generation with Autoregressive Diffusion Modeling

📄 Talker-T2AV: Joint Talking Audio-Video Generation with Autoregressive Diffusion Modeling #语音合成 #音视频 #自回归模型 #扩散模型 #流匹配 ✅ 7.5/10 | 前25% | #语音合成 | #自回归模型 | #音视频 #扩散模型 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhen Ye(根据作者列表顺序推断,论文中未明确标注“第一作者”) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Zhen Ye, Xu Tan, Aoxiong Yin, Hongzhan Lin, Guangyan Zhang, Peiwen Sun, Yiming Li, Chi-Min Chan, Wei Ye, Shikun Zhang, Wei Xue(所有作者所属机构均未在论文正文中明确说明,仅提供了个人姓名。机构信息可能在论文PDF的其他部分或补充材料中,但未在所提供的全文文本中提及。) 💡 毒舌点评 亮点: 论文提出的“解耦”设计哲学很聪明——把高层次的跨模态语义对齐(自回归骨干网络负责)和低层次的信号渲染(独立的扩散头负责)分开,不仅逻辑清晰,而且实验证明在同步性和质量上都优于全流程纠缠的Dual-DiT方案,同时用一个模型统一了三种任务。短板: 视频生成质量的天花板明显受限于所选的LIA-X运动自编码器,论文也坦承了这一点;此外,自回归模型在长序列上误差累积的问题可能导致生成超长语音时质量下降,这在实际应用中是个潜在痛点。 📌 核心摘要 要解决什么问题: 现有联合音视频生成模型(如Dual-DiT)在整个去噪过程中通过密集的跨模态注意力耦合音频和视频,将高层语义和底层信号细节混为一体,导致建模效率低下。同时,这些模型通常输出固定长度,无法适应文本长度和说话节奏的变化。 方法核心是什么: 提出Talker-T2AV,一个两阶段的自回归扩散框架。第一阶段(跨模态建模):将音频和视频编码为时间对齐的潜在序列(25Hz),通过元素级求和融合后,输入到一个共享的自回归语言模型骨干网络中,以补丁级进行自回归生成,捕捉高层跨模态时序结构。第二阶段(模态特定渲染):使用两个独立的轻量级扩散Transformer头,分别将共享的隐状态解码为音频和视频的潜在补丁。 与已有方法相比新在哪里: ① 架构解耦: 首次将联合生成解耦为“高层语义对齐”与“底层信号渲染”两个明确阶段,避免了不必要的全过程跨模态纠缠。② 灵活性: 通过元素级求和设计,一个模型无需修改即可支持文本到音视频、音频到视频(说话头生成)、视频到音频(配音)三种任务。③ 可变长度输出: 基于自回归范式和停止预测器,支持生成任意长度的输出。 主要实验结果如何: 联合生成 (T2AV): 在中英文测试集上,与5个Dual-DiT基线(MoVA, Ovi, LTX-2, UniVerse-1, UniAVGen)相比,本文方法在语音可懂度(CER/WER最低)、视频保真度(FVD最佳)和唇音同步(SyncNet C最高, D最低)上均取得最佳或并列最佳结果。 音频驱动 (A2V): 在中英文测试集上,与5个专用方法(FLOAT, EchoMimic, Sonic, Ditto, AniPortrait)相比,本文方法在视频质量和同步性上综合表现最优(例如,英文Sync-C为5.85,最高)。 视频配音 (V2A): 在Chem数据集上,与5个专用配音系统相比,本文方法在情感相似度(EMO-SIM)、语音可懂度(WER)和自然度(UTMOS)三项指标上均达到最佳,时长对齐(DD)接近最佳。 消融实验: 验证了“元素级求和”融合方式在同步性和效率上优于“交错”或“延迟”排列。 (详细结果表格见“详细分析”部分) 实际意义是什么: 该工作推动了更自然、同步且灵活的虚拟人交互技术的发展。统一的框架降低了构建和部署多模态生成系统的复杂度,为实时对话、虚拟主播、多模态翻译等应用提供了新的技术路径。 主要局限性是什么: ① 自回归骨干在连续潜在空间上的预测误差会随序列增长而累积,影响长音频生成质量。② 视频的最终保真度受限于所采用的LIA-X运动自编码器的表达能力。③ 论文未提及训练所使用的具体硬件和时长,硬件消耗未知。 🏗️ 模型架构 论文整体架构如图1所示,采用“自回归扩散”的两阶段解耦设计。 ...

2026-04-28

Video-Robin: Autoregressive Diffusion Planning for Intent-Grounded Video-to-Music Generation

📄 Video-Robin: Autoregressive Diffusion Planning for Intent-Grounded Video-to-Music Generation #音乐生成 #扩散模型 #自回归模型 #音视频 #基准测试 ✅ 7.0/10 | 前25% | #音乐生成 | #扩散模型 #自回归模型 | #扩散模型 #自回归模型 | arxiv 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Vaibhavi Lokegaonkar(University of Maryland College Park, USA) 通讯作者:Vaibhavi Lokegaonkar, Aryan Vijay Bhosale(论文中标注为Corresponding authors,邮箱为{vlokegao,aryanvib}@umd.edu) 作者列表: Vaibhavi Lokegaonkar(University of Maryland College Park, USA) Aryan Vijay Bhosale(University of Maryland College Park, USA) Vishnu Raj(University of Maryland College Park, USA) Gouthaman KV(University of Maryland College Park, USA) Ramani Duraiswami(University of Maryland College Park, USA) Lie Lu(Dolby Laboratories, USA) Sreyan Ghosh(NVIDIA, USA) Dinesh Manocha(University of Maryland College Park, USA) 💡 毒舌点评 亮点:该工作将语音合成领域已验证有效的“自回归规划+扩散细化”混合范式,成功迁移到视频音乐生成任务,并通过引入文本条件控制解决了该领域长期存在的“创作者意图表达”短板,工程实现和实验验证都做得非常扎实。短板:其核心架构思想并非首创(如DiTAR),且评估主要集中在10秒短片段,对于真正考验音乐结构连贯性的长视频配乐场景缺乏验证,使得其“里程碑”成色稍显不足。 ...

2026-04-24

Text-To-Speech with Chain-of-Details: modeling temporal dynamics in speech generation

📄 Text-To-Speech with Chain-of-Details: modeling temporal dynamics in speech generation #语音合成 #掩码生成建模 #自回归模型 ✅ 7.0/10 | 前25% | #语音合成 | #掩码生成建模 | #自回归模型 | arxiv 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 0.8 | 置信度 中 👥 作者与机构 第一作者:Jianbo Ma(论文工作完成于Dolby Laboratories;现任职于Canva Research) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表: Jianbo Ma(论文工作完成于Dolby Laboratories;现任职于Canva Research) Richard Cartwright(论文工作完成于Dolby Laboratories;现任职于Canva Research) 💡 毒舌点评 亮点:论文巧妙地将“粗到细”的生成思想从传统的语义-声学token维度,拓展到了时间分辨率维度,提出了一个逻辑自洽且实验有效的CoD框架,为TTS建模提供了新视角。短板:实验评估过于依赖WER这一客观指标,完全缺失了MOS等主观听感评价,而语音合成的终极标准是“好不好听”,这使得其“更自然”的结论说服力大打折扣。 📌 核心摘要 问题:现有基于离散token的TTS模型,其“粗到细”的生成范式主要体现在从语义token到声学token的转换,而对语音固有的时间动态(temporal dynamics)缺乏显式建模。 方法核心:提出Chain-of-Details (CoD)框架,将语音生成分解为多个渐进的时间层级。每个层级对应不同的时间分辨率(token率),从最粗糙(低时间分辨率、捕获宏观结构)到最精细(高时间分辨率、添加细节)。所有层级共享一个统一的码本和一个双向Transformer解码器。 创新点:与已有方法相比,CoD首次将时间维度的粗到细建模显式引入TTS生成过程。它不依赖独立的音素时长预测器,而是让最低时间层级自然完成音素规划。同时,采用共享解码器的设计提升了参数效率。 实验结果:在LibriSpeech test-clean上,CoD-Base(263M参数)WER为3.09%,优于同等数据量下的KD-NARSIS(5.9%)和StyleTTS 2(4.0%)。在SeedTTS测试集上,CoD-Base(263M参数)WER为2.89%,与参数量近4倍的MaskGCT(1B,2.62%)性能相当。消融研究证实,增加时间层级数能显著降低WER。 实际意义:CoD框架以更少的参数实现了具有竞争力的合成质量,证明了显式时间动态建模的有效性,为构建更高效、更自然的TTS系统提供了新思路。 主要局限性:评估体系不完整,缺乏MOS等主观评价指标,无法全面评估语音自然度和韵律质量;未报告推理速度等效率指标;对更长时间层级(如4级)的效果未深入探索。 🏗️ 模型架构 CoD框架遵循一个两阶段流程:1)音频离散化,2)基于掩码的生成建模。核心创新在于第二阶段采用了级联的多时间层级结构。 音频离散化:使用预训练的音频编解码器(如DAC)将波形转换为离散token序列。论文探索了两种策略来获取不同时间层级的token: 降采样策略:直接对RVQ第一层的token序列进行降采样(例如,因子2和4),得到不同token率(如86Hz -> 43Hz -> 21.5Hz)的序列。 显式层级量化策略:在RVQ中增加额外的量化器,每个量化器处理上一层级表示经过降采样后的残差,从而显式建模时间层级。 Chain-of-Details 生成模型: ...

2026-04-23

Towards Streaming Target Speaker Extraction via Chunk-wise Interleaved Splicing of Autoregressive Language Model

📄 Towards Streaming Target Speaker Extraction via Chunk-wise Interleaved Splicing of Autoregressive Language Model #语音分离 #自回归模型 #流式处理 #实时处理 #语音大模型 🔥 8.5/10 | 前25% | #语音分离 | #自回归模型 | #流式处理 #实时处理 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Shuhai Peng (1) 通讯作者:Zhiyong Wu (1,†) 作者列表: Shuhai Peng (1) Hui Lu (2) Jinjiang Liu (1) Liyang Chen (1) Guiping Zhong (3) Jiakui Li (3) Huimeng Wang (2) Haiyun Li (1) Liang Cao (1) Shiyin Kang (3) Zhiyong Wu (1,†) 机构信息:论文中未明确给出机构1、2、3的具体名称。根据作者上标标注,作者分属三个不同机构。 💡 毒舌点评 这篇论文的亮点在于首次将自回归生成模型成功适配到流式目标说话人提取任务中,并通过“分块交错拼接”这一工程上优雅的设计解决了训练与推理的不匹配问题,实现了100%的推理稳定性,且性能在低延迟下超越了传统判别式模型。然而,其短板也十分明显:所有实验均在单一的Libri2Mix数据集上进行,对于更复杂、噪声更多样的真实场景(如远场、强混响)的泛化能力未得到验证,这使得其“超越离线基线”的结论显得有些封闭和乐观。 ...

2026-04-23

BEAT: Tokenizing and Generating Symbolic Music by Uniform Temporal Steps

📄 BEAT: Tokenizing and Generating Symbolic Music by Uniform Temporal Steps #音乐生成 #自回归模型 #实时处理 #数据集 #音频生成 🔥 评分:8.5/10 | arxiv 👥 作者与机构 根据论文标题页信息,作者为: 第一作者:Lekai Qian 通讯作者:Ziyu Wang (根据常规学术论文作者排序惯例推断,论文未明确标注) 其他作者:Haoyu Gu, Jingwei Zhao 论文未明确标注作者所属机构。根据arXiv论文的常见情况及作者姓名推测,作者可能来自中国的高校或研究机构(如清华大学、北京大学、中国科学院等),但论文正文中未提供明确信息。 💡 毒舌点评 亮点:把钢琴卷帘(Piano-roll)这种“笨重”的2D表示,巧妙地“压扁”成按拍(beat)分组的稀疏token序列,既保留了时间网格的规整性,又获得了堪比事件序列的紧凑性,这个“鱼与熊掌兼得”的思路非常优雅。 槽点:模型规模(150M)相对保守,在当今大模型时代略显“迷你”,限制了其性能上限和作为通用音乐表示的潜力;此外,实验主要集中在西方音乐传统(MIDI, 4/4拍),对其他音乐文化的普适性有待验证。 📌 核心摘要 本文针对符号音乐生成中主流的事件序列(event-based)tokenization方法隐含处理时间规律、导致模型需额外学习时间网格的问题,提出了一种名为BEAT的新型网格化tokenization框架。其核心思想是将音乐在时间上均匀离散化为“拍”(beat)作为基本单位,将每拍内每个音高的活动状态(起音、持续、静音)编码为一个“模式”(pattern)令牌,并与音高、力度信息组合,形成按拍组织的稀疏令牌序列。这种方法显式地融入了音乐时间均匀性的归纳偏置。实验表明,在音乐续写和实时伴奏生成任务上,BEAT在节奏一致性(JS GC)、分布相似性(FMD)等客观指标和主观听感评价上均优于REMI、Compound Word等基线方法。进一步分析显示,BEAT表示更紧凑、具有更好的可压缩性,能更有效地捕捉长程结构,并天然支持实时流式生成。该工作为符号音乐表示学习提供了一个兼具理论优雅性和实践有效性的新方向。 🏗️ 模型架构 BEAT的核心并非一个全新的模型架构,而是一种新的音乐表示(tokenization)方案,该方案可无缝接入标准的自回归Transformer语言模型。 完整输入输出流程: 输入:多轨符号音乐(如MIDI),被表示为三维张量 (轨道数 P, 时间步数 T) 的钢琴卷帘矩阵,每个元素取值 {0(静音), 1(起音), 2(持续)},并附带力度信息。 编码阶段(BEAT Encoding): 步骤1(拍内编码):以固定时间步长 τ(默认为4个十六分音符,即一拍)将钢琴卷帘分割为 N 个“拍段” B(i)。对于每个拍段内的每个音高 p,将其 τ 个时间步的状态向量通过三进制转整数编码为一个“模式令牌” PAT_x。同时,计算该音高在此拍内的平均力度,编码为“力度令牌” VEL_x。 步骤2(拍级组装):识别当前拍段内的活跃音高集合,按音高降序排列。第一个音高使用绝对音高索引作为“音高令牌” PIT_d,后续音高使用与前一音高的相对音程差作为音高令牌。这样,一个拍的内容被表示为一组 (PIT_d, PAT_s, VEL_v) 三元组的序列。若该拍全休止,则用一个特殊的 REST 令牌表示。 步骤3(序列构建):在每个拍的序列前插入 BEAT 令牌作为分隔符。在每小节开始处插入 BAR 令牌。对于多轨音乐,在每个拍的轨道内容前插入乐器令牌 INS_x。最终,所有拍的序列按时间顺序拼接,形成完整的令牌序列。 建模阶段:将上述令牌序列输入标准的16层Transformer解码器(150M参数,遵循LLaMA架构),使用自回归方式建模令牌的联合概率分布,训练时最小化交叉熵损失。 输出与解码:模型自回归生成令牌序列。解码器通过识别绝对/相对音高令牌来重建拍段和钢琴卷帘,最终还原为可播放的符号音乐。 关键设计选择理由: ...

2026-04-22

Towards Streaming Target Speaker Extraction via Chunk-wise Interleaved Splicing of Autoregressive Language Model

📄 Towards Streaming Target Speaker Extraction via Chunk-wise Interleaved Splicing of Autoregressive Language Model #语音分离 #自回归模型 #流式处理 #大语言模型 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Shuhai Peng(推断为小米或合作机构) 通讯作者:Zhiyong Wu(推断为小米或合作机构) 其他作者:Hui Lu, Jinjiang Liu, Liyang Chen, Guiping Zhong, Jiakui Li, Huimeng Wang, Haiyun Li, Liang Cao, Shiyin Kang 机构信息:论文未明确标注所有作者的所属机构。根据作者列表和常见合作模式,作者可能来自小米公司(Xiaomi)、香港中文大学(The Chinese University of Hong Kong) 或其他合作研究机构。具体实验室/课题组信息未在提供的文本中说明。 💡 毒舌点评 亮点:精准地抓住了生成式TSE模型流式化时“一跑就崩”的痛点,用“交织拼接”这招巧妙地给模型戴上了“因果紧箍咒”,硬是把一个“离线学霸”改造成了“实时能手”,稳定性拉满。槽点:方法创新更像是针对现有大模型(LauraGPT)的“工程适配”和“流程优化”,理论深度稍显不足;而且说好的开源代码“将在GitHub上”,目前还是一张空头支票。 📌 核心摘要 这篇论文旨在解决生成式目标说话人提取(TSE)模型在流式实时应用中因依赖全局上下文而导致性能严重下降的核心问题。作者首次提出了一个基于自回归语言模型(LauraGPT)的流式TSE框架。其核心创新是“分块交织拼接范式”,通过将混合音频块与对应的目标语音离散编码块交错排列作为模型输入,严格保证了推理的因果性,防止了未来信息泄露。同时,设计了“历史上下文优化机制”,在声码器解码阶段引入前一音频块的隐藏状态,以缓解块间的相位不连续问题。实验表明,该方法在低延迟(如560ms)下实现了100%的推理成功率,语音质量和可懂度优于基线生成模型,并能匹配甚至超越离线判别式模型的性能,且在消费级GPU上达到了0.248的实时率(RTF)。该工作证明了自回归生成模型适用于低延迟流式应用的可行性。 🏗️ 模型架构 模型整体采用基于LauraGPT的粗到细(coarse-to-fine)分层架构,处理流程如下: 输入:一段包含目标说话人和干扰的混合语音(被切分为连续的音频块 C_mix),以及一段目标说话人的参考语音 E_ref。 共享特征提取:混合语音块和参考语音分别通过两个权重共享、严格因果的Conformer编码器,提取帧级别的连续嵌入表示 E_mix 和 E_ref。这确保了特征提取只依赖当前和历史信息。 语义提取语言模型(SELM): 输入构造:将静态的参考语音嵌入 E_ref 与一个特殊分隔符 v_sep 作为前缀,后面交织拼接历史所有的混合语音块和它们对应的目标语音离散语义令牌(C_mix(1), v_task, u(1), ..., C_mix(t), v_task, u(t))。 功能:这是一个自回归Transformer模型,负责预测当前音频块对应的粗粒度语义离散令牌序列 u(t)。其自注意力机制被限制在交织的序列上,保证了因果性。 声学细化语言模型(ARLM): 输入构造:同样以参考语音为静态前缀,后面交织拼接历史所有的混合语音块和它们对应的、由SELM预测出的语义令牌序列(C_mix(1), U_SELM(1), ..., C_mix(t), U_SELM(t))。 功能:另一个自回归Transformer模型,负责在SELM输出的粗粒度语义令牌基础上,生成细粒度的声学隐藏状态 h(t),以恢复高频细节和提升音质。 声码器解码与历史上下文优化: 输入构造:解码器的输入不仅是当前块的声学隐藏状态 h(t),还拼接了上一时刻优化后的隐藏状态 h(t-1),即 Concat(h(t-1), h(t))。 功能:一个预训练的神经声码器(funcodec的解码器部分),将细粒度的声学隐藏状态重建为最终的语音波形。引入 h(t-1) 的目的是平滑块间过渡,保持相位和语义连贯性。 输出:当前时间块的目标语音波形。 关键设计理由: ...

2026-04-22

MimicLM: Zero-Shot Voice Imitation through Autoregressive Modeling of Pseudo-Parallel Speech Corpora

📄 MimicLM: Zero-Shot Voice Imitation through Autoregressive Modeling of Pseudo-Parallel Speech Corpora #语音转换 #自回归模型 #强化学习 #多语言 #工业应用 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Tao Feng (清华大学) 通讯作者:Zhizheng Wu (香港中文大学(深圳)) 其他作者: Yuxiang Wang, Yuancheng Wang, Xueyao Zhang, Dekun Chen, Chaoren Wang (香港中文大学(深圳)) Xun Guan (清华大学) 💡 毒舌点评 亮点:把TTS生成的“垃圾”(合成语音)从训练目标变成训练源,这个“角色交换”的脑回路确实清奇,直接绕过了合成质量天花板,是论文最大的创新点。槽点:虽然思路巧妙,但整个框架依然严重依赖一个高质量的外部TTS系统来生成训练源,33%的数据过滤率也暗示了对TTS质量的敏感性;此外,构建850万对训练数据所需的计算资源(TTS推理+模型训练)恐怕不是一般实验室能承受的,可复现性存疑。 📌 核心摘要 这篇论文旨在解决零样本语音模仿任务中高质量平行训练数据稀缺的核心瓶颈。传统方法要么依赖复杂的解耦架构,要么使用合成语音作为训练目标,导致输出质量受限于合成系统的能力。作者提出了一种名为 MimicLM 的新框架,其核心创新在于**“角色交换”的数据构建策略**:使用TTS生成的语音作为训练源,而将真实的录音保留为训练目标。这使得模型能够直接从真实语音分布中学习,突破了合成质量的“天花板”。为应对这一新范式带来的内容保真度挑战和训练-推理分布不匹配问题,论文进一步引入了交错文本-音频建模(通过文本锚点引导内容生成)和基于DPO的偏好对齐(使用真实输入进行后训练以弥合分布差距)。实验表明,MimicLM在自然度、说话人相似度和情感保真度上取得了与SOTA方法竞争甚至更优的结果,尤其在主观评价中表现突出,并有效降低了在真实输入上的词错误率。该工作为语音模仿提供了一种概念更简单、效果显著的新范式。 🏗️ 模型架构 MimicLM是一个基于自回归Transformer的端到端语音到语音转换模型,整体架构包含三个核心组件: 音频分词器:使用预训练且冻结的 CosyVoice 2.0 的音频分词器,将连续的语音波形转换为离散的音频令牌(audio tokens),帧率为25 Hz。 自回归Transformer主干:基于 Qwen2.5-0.5B 架构改造的解码器-only Transformer。其输入是一个精心构造的交错序列,输出是预测的文本和音频令牌。 流匹配解码器:同样来自CosyVoice 2.0,将Transformer输出的离散音频令牌重建为连续的语音波形。 完整输入输出流程: 输入准备: 参考音频:通过音频分词器转换为“参考令牌”(ref token)。 源音频:通过音频分词器转换为“源令牌”(src token),并以<|SOURCE_START|>特殊令牌为前缀。 序列构造:模型输入序列按顺序拼接为:[ref token] + [<|SOURCE_START|>] + [src token] + [交错文本-音频块]。 交错文本-音频块是核心设计。序列被分为两个阶段: 分块阶段:交替出现文本块(5个令牌,由<|TEXT_START|>和<|TEXT_END|>包裹)和音频块(25个令牌)。这种1:5的比例确保文本预测在时间上略微领先音频生成,为音频合成提供语义指导。 连续阶段:处理剩余内容,先生成剩余文本令牌(由<|REMAIN_START|>和<|TEXT_END|>包裹),再生成剩余音频令牌(以<|REMAIN_END|>结束)。 自回归生成:Transformer以该序列为条件,以自回归方式同时预测下一个文本令牌和音频令牌。训练时使用教师强制。 输出重建:生成的音频令牌序列被送入流匹配解码器,最终输出模仿了参考音频音色和风格、但内容与源音频一致的目标语音波形。 关键设计选择理由: ...

2026-04-21

Video-Robin: Autoregressive Diffusion Planning for Intent-Grounded Video-to-Music Generation

📄 Video-Robin: Autoregressive Diffusion Planning for Intent-Grounded Video-to-Music Generation #音乐生成 #自回归模型 #多模态模型 #基准测试 #音视频 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Vaibhavi Lokegaonkar(University of Maryland College Park, USA) 通讯作者:Aryan Vijay Bhosale, Vishnu Raj(根据“Corresponding authors”及邮箱 {vlokegao,aryanvib}@umd.edu 推断,均来自 University of Maryland College Park, USA) 其他作者: Gouthaman KV(University of Maryland College Park, USA) Ramani Duraiswami(University of Maryland College Park, USA) Lie Lu(Dolby Laboratories, USA) Sreyan Ghosh(University of Maryland College Park, USA) Dinesh Manocha(University of Maryland College Park, USA) 💡 毒舌点评 亮点在于巧妙地将自回归模型的“宏观规划”能力和扩散模型的“细节雕刻”能力缝合在一起,解决了视频配乐中“既要懂视频又要听指挥”的痛点,还顺手做了个挺专业的评测基准ReelBench。槽点是缝合的“线”(如FSQ, RITE)都是现成的,而且目前只能给10秒短片配乐,离给一部电影完整配乐的“终极梦想”还有不小的距离,更像是个精致的概念验证版。 ...

2026-04-21

Towards Fine-grained Temporal Perception: Post-Training Large Audio-Language Models with Audio-Side Time Prompt

📄 Towards Fine-grained Temporal Perception: Post-Training Large Audio-Language Models with Audio-Side Time Prompt #音频理解 #音频事件检测 #音频大模型 #强化学习 #自回归模型 🔥 评分:8.3/10 | arxiv 👥 作者与机构 第一作者:Yanfeng Shi(中国科学技术大学,语音及语言信息处理国家工程研究中心) 通讯作者:Lirong Dai(中国科学技术大学,语音及语言信息处理国家工程研究中心),Yan Song(中国科学技术大学,语音及语言信息处理国家工程研究中心) 其他作者: Pengfei Cai(中国科学技术大学,语音及语言信息处理国家工程研究中心) Jun Liu(中国科学技术大学,语音及语言信息处理国家工程研究中心) Qing Gu(中国科学技术大学,语音及语言信息处理国家工程研究中心) Nan Jiang(中国科学技术大学,语音及语言信息处理国家工程研究中心) Ian McLoughlin(新加坡科技学院,ICT Cluster) 💡 毒舌点评 亮点在于巧妙地将“时间戳”伪装成一种特殊的“语言令牌”塞进音频特征序列里,让模型像读句子一样“读”出时间坐标,再用强化学习直接对齐音频事件检测的黄金指标,思路清晰且有效。槽点是这方法有点“取巧”,时间提示的窗口(0-30秒)和分辨率(0.04秒)是硬编码的,遇到更长或需要更高精度的音频就抓瞎,而且强化学习那套调参和训练效率的“玄学”问题,论文里轻描淡写了。 📌 核心摘要 这篇论文旨在解决大型音频语言模型(LALM)在细粒度时间感知(如精确定位声音事件的起止时间)上的不足。作者提出了TimePro-RL框架,其核心是两步走策略:首先,提出音频侧时间提示(ASTP),将时间戳编码为特殊令牌并交织插入音频特征序列中,为模型提供明确的物理时间坐标;其次,在监督微调(SFT)后,引入基于强化学习(RL) 的后训练阶段,并设计了一种自适应时间奖励机制(结合事件F1分数和连续辅助奖励如mIoU),直接优化模型的时间对齐性能。实验表明,该方法在音频定位、声音事件检测和密集音频描述三个任务上,相比多种基线模型取得了显著提升,尤其在高精度时间定位指标上优势明显。局限性在于时间提示的范围和分辨率固定,且RL训练增加了复杂度。 🏗️ 模型架构 整体流程:模型基于现有的LALM(如Qwen2-Audio, Qwen2.5-Omni),其核心架构为音频编码器 + 大语言模型(LLM)。TimePro-RL通过修改输入模态和训练目标来增强其时序能力。 输入输出流程: 输入:一段原始音频波形 + 一个自然语言查询(例如:“火车道口铃声何时响起?”)。 音频编码:音频通过预训练的音频编码器(如Whisper)处理,输出一个音频特征序列(<AUDIO> tokens)。假设编码器帧率为25Hz,即每0.04秒输出一个特征向量。 时间提示注入:这是核心修改。在预处理阶段,根据音频时长和帧率,生成一系列时间戳令牌(Timestamp Tokens),如<0.04>, <0.08>等。这些令牌被交织插入到音频特征序列的对应时间位置上,形成新的输入序列:<s> <audio> <AUDIO> <0.04> <AUDIO> <0.08> <AUDIO> ... </audio> 当何时发生? </s>。 嵌入层处理: 音频特征:通过音频编码器映射为音频嵌入。 时间戳令牌:通过一个时间戳嵌入层映射为向量。该嵌入层采用语义初始化:每个时间戳嵌入向量初始化为其数字字符串(如“0.04”)经LLM原始分词器分词后,对应子词嵌入的均值。训练时,此嵌入层参数被冻结。 文本令牌:通过文本嵌入层映射为文本嵌入。 LLM处理:上述混合嵌入序列(音频+时间戳+文本)被送入大语言模型(自回归Transformer)。 输出:模型自回归地生成文本响应,格式根据任务而定(如{"query": [5.0, 6.0]})。 关键设计理由: ...

2026-04-19