Hierarchical Codec Diffusion for Video-to-Speech Generation

📄 Hierarchical Codec Diffusion for Video-to-Speech Generation #语音合成 #扩散模型 #多模态模型 #零样本 #跨模态 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Jiaxin Ye(Fudan University) 通讯作者:Hongming Shan(Fudan University,hmshan@fudan.edu.cn) 其他作者: Gaoxiang Cong(Institute of Computing Technology, Chinese Academy of Sciences;University of Chinese Academy of Sciences) Chenhui Wang(Fudan University) Xin-Cheng Wen(Harbin Institute of Technology (Shenzhen)) Zhaoyang Li(Fudan University) Boyuan Cao(Fudan University) 💡 毒舌点评 亮点:这篇论文像个严谨的“交通协管员”,终于把 RVQ 不同层级当成了不同的车道——让嘴唇和身份去底层飙内容,让表情去高层管情绪,治好了 VTS 领域长期存在的“视觉条件瞎注入”的拥堵病。 槽点:虽然口口声声“首个”层次化离散扩散,但骨子里是 SEDD + MaskGCT Codec + DiT AdaLN 的“学术拼好饭”;更妙的是训练时偷偷用真实音频的 GE2E 特征来 stabilize 模型,推理时却只能看脸硬撑,这算不算一种“开卷考试练出的学霸”? ...

2026-04-20

ControlFoley: Unified and Controllable Video-to-Audio Generation with Cross-Modal Conflict Handling

📄 ControlFoley: Unified and Controllable Video-to-Audio Generation with Cross-Modal Conflict Handling #音频生成 #多模态模型 #扩散模型 #基准测试 🔥 评分:9.2/10 | arxiv 👥 作者与机构 第一作者:Jianxuan Yang(小米 MiLM Plus) 通讯作者:Jian Luan(小米 MiLM Plus) 其他作者: Xinyue Guo(小米 MiLM Plus) Zhi Cheng(小米 MiLM Plus,武汉大学) Kai Wang(小米 MiLM Plus,武汉大学) Lipan Zhang(小米 MiLM Plus) Jinjie Hu(小米 MiLM Plus) Qiang Ji(小米 MiLM Plus) Yihua Cao(小米 MiLM Plus) Yihao Meng(小米 MiLM Plus,武汉大学) Zhaoyue Cui(小米 MiLM Plus,武汉大学) Mengmei Liu(小米 MiLM Plus) Meng Meng(小米 MiLM Plus) (所有作者均来自“Xiaomi LLM Core Team”或“MiLM Plus, Xiaomi Inc.”,部分作者有武汉大学的联合署名) 💡 毒舌点评 亮点:这篇论文精准地抓住了当前视频到音频生成领域的两大痛点——“文本说啥视频不听”和“参考音频带节奏还抢戏”,并给出了系统性的解决方案,尤其是提出的VGGSound-TVC基准,简直是给“视觉霸权”模型们准备的“照妖镜”。 槽点:方法虽然精巧,但本质上是“堆料”的艺术——双视觉编码器、多模态对齐损失、复杂的训练策略,对算力和数据的需求不低,感觉是在用“钞能力”解决“控制力”问题,小团队复现起来可能要掉头发。 ...

2026-04-19

CoSyncDiT: Cognitive Synchronous Diffusion Transformer for Movie Dubbing

📄 CoSyncDiT: Cognitive Synchronous Diffusion Transformer for Movie Dubbing #语音克隆 #扩散模型 #流匹配 #多模态 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Gaoxiang Cong(推测,因其在作者列表中排首位,且为论文主要工作贡献者) 通讯作者:Qingming Huang(推测,因其为资深作者,且通常通讯作者在最后) 其他作者及机构: Gaoxiang Cong, Liang Li, Jiaxin Ye, Zhedong Zhang, Hongming Shan:中国科学院计算技术研究所(Institute of Computing Technology, Chinese Academy of Sciences)/ 中国科学院大学(University of Chinese Academy of Sciences) Yuankai Qi:复旦大学(Fudan University) Qingming Huang:中国科学院计算技术研究所 / 杭州电子科技大学(Hangzhou Dianzi University) / 麦考瑞大学(Macquarie University) 💡 毒舌点评 亮点:把配音演员“听-看-说”的认知过程拆解成模型的三阶段流水线,这个思路相当优雅,不仅解决了特征早期纠缠的问题,还让复杂的对齐任务变得模块化、可解释。槽点:论文里“认知同步”、“渐进式引导”这类高大上的词汇层出不穷,但核心的JSAR机制本质上还是对比学习+CTC损失的“老三样”,创新包装大于内核突破。另外,号称完全消除外部对齐工具依赖,但训练时却用上了预训练的AV-HuBERT,这算不算一种“隐形”的依赖呢? 📌 核心摘要 本文针对电影配音(视觉语音克隆)中音色保真度与唇形同步难以兼得的痛点,提出了一种基于流匹配的认知同步扩散Transformer(CoSyncDiT)框架。该方法受专业配音员认知过程启发,将噪声到语音的生成过程解耦为三个顺序阶段:声学风格适应、细粒度视觉校准和时间感知上下文对齐,从而渐进式地引导生成轨迹,避免了早期多模态特征干扰。为进一步稳定训练并提升对齐精度,作者设计了联合语义与对齐正则化(JSAR)机制,在中间上下文输出上施加帧级对比学习以强化时间一致性,在最终隐藏状态上施加CTC损失以保障语义正确性。在多个标准数据集及具有挑战性的“野外”场景下的实验表明,CoSyncDiT在说话人相似度、发音清晰度、情感相似度和音视频同步等关键指标上均取得了当前最佳性能,尤其在零样本和跨领域设定下展现出卓越的鲁棒性。 🏗️ 模型架构 CoSyncDiT的整体框架旨在将高斯噪声逐步转化为与目标视频唇形同步、并保持参考音色的梅尔频谱图。其核心是一个基于流匹配(Flow Matching)的扩散Transformer(DiT),但并非均匀处理所有层,而是将去噪过程划分为三个认知阶段。 完整输入输出流程: 输入: 参考音频:提取原始梅尔频谱图,经二进制时间掩码遮盖目标区域后,得到掩码声学特征 H_m。 无声视频:通过唇部运动编码器(预训练的AV-HuBERT)提取原始唇部特征,再经级联上采样层对齐至目标梅尔分辨率,得到 X_lip。 配音脚本:通过文本编码器(4层ConvNeXtV2)提取文本特征 H_text。 先验构建:将文本特征通过填充和交叉注意力操作扩展至梅尔级别,并与掩码声学特征 H_m 拼接,形成统一的“语义-声学先验”,作为初始条件。 生成过程(CoSync-DiT): 阶段1:声学风格适应:将带噪的中间变量 x_t 与“语义-声学先验”拼接,通过统一投影层输入DiT。此阶段仅使用多头自注意力(MHSA)和时间自适应层归一化(Time-AdaLN),让模型专注于从参考音频中学习说话人音色风格,并建立风格与文本的初步关联,不引入任何视觉信息。 阶段2:细粒度视觉校准:将阶段1的输出 Z_style 与经过上采样的唇部特征 X_lip 相加。关键设计是一个零初始化的可学习门控 Λ,初始值为0,使得视觉信息作为残差缓慢注入,用于校准声学表示以匹配唇部运动的节奏动态,同时保护已建立的风格信息。 阶段3:时间感知上下文对齐:在阶段2的输出 Z_lip 基础上,使用多头交叉注意力(MHCA),以 Z_lip 为Query,以文本特征 H_text 为Key和Value。同样使用Time-AdaLN进行时间调制。此阶段旨在让模型基于已融合的声学-视觉表示,隐式检索语言上下文,从而生成发音准确的语音。 输出:经过多个CoSync-DiT块迭代后,最终预测出从噪声到目标梅尔频谱的向量场,通过求解常微分方程(ODE)得到生成的梅尔频谱图 x_1。 正则化(JSAR):在训练时,对阶段3的中间交叉注意力输出 Z_ca 施加基于预训练AV-HuBERT特征的帧级对比损失(L_cl),约束时间对齐;对最终隐藏状态 Z_out 施加CTC损失(L_ctc),约束语义正确性。 关键设计选择理由: ...

2026-04-19

Diffusion Language Models for Speech Recognition

📄 Diffusion Language Models for Speech Recognition #语音识别 #扩散模型 #大语言模型 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Davyd Naveriani (推断为RWTH Aachen University) 通讯作者:Albert Zeyer (推断为RWTH Aachen University) 其他作者:Ralf Schlüter (RWTH Aachen University), Hermann Ney (RWTH Aachen University) 机构推断:所有作者均来自德国亚琛工业大学(RWTH Aachen University)的计算机科学系,具体为Human Language Technology and Pattern Recognition (HLTPR) 课题组。论文中未直接标注机构,但根据论文作者一贯的归属以及arXiv上该团队的历史论文可以明确推断。 💡 毒舌点评 亮点:把当下火热的扩散模型从图像领域“跨界”应用到语音识别的文本重打分上,思路新颖,并且很务实地设计了结合传统CTC的混合解码方法,不是为了用扩散而用扩散。槽点:创新更多在于“应用”和“组合”,而非提出全新的扩散模型架构;作为一篇方法论论文,实验部分在摘要中略显单薄,缺乏具体的数字支撑其“显著提升”的结论。 📌 核心摘要 这篇论文探索了将扩散语言模型(DLM)应用于自动语音识别(ASR)任务的新方法。其核心目标是利用扩散模型的双向注意和并行生成能力,来提升基于传统编码器(如CTC)生成的ASR候选假设的准确性。论文主要贡献包括:1)系统性地介绍了如何将掩码扩散语言模型(MDLM)和均匀状态扩散模型(USDM)用于ASR假设的重打分(Rescoring);2)创新性地提出了一种CTC与USDM的联合解码(Joint-Decoding)方法,在解码的每一步融合CTC的帧级声学概率分布与USDM的标签级语言概率分布,从而生成兼具声学与强大语言先验知识的新候选。实验表明,这两种扩散模型都能显著提升识别文本的准确率。该研究为将前沿的生成式语言模型整合到成熟的语音识别 pipeline 中提供了实用的指南和新的混合解码范式。 🏗️ 模型架构 论文并未提出一个全新的端到端模型,而是探索如何将预训练好的扩散语言模型(MDLM或USDM) 集成到现有的ASR解码流程中。整体流程分为两个主要应用场景: 场景一:重打分 (Rescoring) 输入:由一个基础ASR系统(例如基于CTC或Attention的编码器)生成的N-best候选列表(一组可能的文本假设及其初始分数)。 处理:将每个候选文本假设输入到一个冻结参数的预训练扩散语言模型(MDLM或USDM)中。 扩散模型内部流程(以USDM为例): 前向过程:向文本序列中逐步添加噪声(将token均匀替换为[MASK]或其他特殊状态),直到变成纯噪声。 反向过程(推理核心):模型学习从噪声中去噪,恢复原始文本。关键在于,模型可以计算出在给定噪声程度下,原始文本序列的对数概率(log probability)。这个概率反映了该文本序列符合模型所学语言分布的程度。 输出:扩散语言模型输出的每个候选的对数概率,作为一个语言模型分数。 融合与排序:将此语言模型分数与基础ASR系统给出的声学分数(如CTC的路径概率)按权重相加,得到每个候选的最终分数。根据最终分数对N-best列表重新排序,输出得分最高的候选作为最终识别结果。 场景二:联合解码 (Joint-Decoding) 这是一个更紧密的集成方法,在集束搜索(Beam Search)解码过程中动态结合两者。 ...

2026-04-19

Tora3: Trajectory-Guided Audio-Video Generation with Physical Coherence

📄 Tora3: Trajectory-Guided Audio-Video Generation with Physical Coherence #音频生成 #音视频 #多模态模型 #扩散模型 ✅ 评分:7.8/10 | arxiv 👥 作者与机构 第一作者:Junchao Liao (阿里巴巴云计算) 通讯作者:Long Qin (阿里巴巴云计算,复旦大学),Weizhi Wang (阿里巴巴云计算) 其他作者: Zhenghao Zhang (阿里巴巴云计算) Xiangyu Meng (阿里巴巴云计算) Litao Li (阿里巴巴云计算) Ziying Zhang (阿里巴巴云计算) Siyu Zhu (复旦大学) 机构信息:主要来自阿里巴巴云计算(具体为阿里云智能集团)和复旦大学。论文未明确标注具体实验室。 💡 毒舌点评 亮点:论文的核心洞察——将稀疏的物体轨迹从单纯的视频控制信号,提升为跨模态共享的“运动学先验”,并以此统一约束视频中的物体运动与音频中的事件时序和强度,这个切入点非常聪明且具有物理直觉,是解决音画不同步“老大难”问题的一次优雅尝试。 槽点:论文在方法描述上过于“学术八股”,把一个直观的想法包裹在复杂的公式和模块命名里(比如“Hybrid Flow Matching”本质上就是区域自适应的噪声调度)。另外,新构建的PAV数据集号称有46万条,但数据清洗和轨迹提取的细节(如CoTracker3在复杂场景下的失败案例)对结果可靠性的影响被一笔带过,有“大力出奇迹”之嫌。 📌 核心摘要 本文针对现有音视频(AV)生成模型中存在的运动不真实、声音与运动事件不同步、声音强度与运动强度不匹配等问题,提出了Tora3框架。其核心创新在于将物体轨迹视为连接视觉与听觉模态的共享运动学先验,而非仅用于控制视频。为实现这一目标,Tora3包含三个关键技术组件:1)轨迹对齐的运动表示,通过在视频潜在空间中直接沿轨迹传播首帧特征来注入运动线索,避免了额外运动编码器的引入;2)运动学-音频对齐模块,从轨迹中推导出位置、速度、加速度等二阶运动学状态,并通过交叉注意力注入音频扩散模型,为声音生成提供精确的事件时序和强度提示;3)混合流匹配机制,对轨迹区域和非轨迹区域采用不同的概率流,以在保持轨迹保真度的同时维持局部外观一致性。此外,论文构建了一个大规模、以运动为中心的PAV数据集(46万片段)。实验表明,Tora3在视频质量(FVD 784.1)、轨迹跟随精度(TE 12.13)、音视频同步(FGAS 0.234)以及运动-声音相关性(MAIC 0.63)上均优于强基线模型。局限性在于其效果高度依赖于输入轨迹的质量与准确性,且对复杂物理交互(如材质、3D声学)的建模能力有限。 🏗️ 模型架构 Tora3基于一个双流扩散Transformer(DiT)架构(继承自Ovi),包含独立的视频和音频主干网络。其整体输入输出流程及核心组件如下: 输入:文本提示(Prompt)、可选的初始图像、以及物体轨迹(一系列物体在每帧的2D坐标)。 视频分支流程: VAE编码:初始图像通过预训练的VAE编码器得到潜在表示 z。 轨迹对齐运动表示:这是核心创新之一。不引入额外编码器,而是直接将轨迹映射到潜在空间坐标。对于每个物体的轨迹,在视频潜在序列的每一帧中,将该轨迹点对应的潜在位置特征,替换为初始图像在该物体起始位置的特征 z。非轨迹区域初始化为零(首帧除外)。这相当于在潜在空间“绘制”了运动的物体。 注入与生成:上述构建的 x_traj 作为条件,与噪声潜在变量 x_t 一起输入视频DiT主干。主干由N个Fusion Block组成,内部包含自注意力、跨注意力(用于融合文本嵌入)和前馈网络。 音频分支流程: VAE编码:目标音频波形通过音频VAE编码器得到音频潜在表示。 运动学特征提取:从轨迹中计算每个物体在每一帧的8维运动学特征向量 ϕ,包括:归一化位置 (r)、速度向量 (v)、加速度向量 (a)、速度模长 ||v||、加速度模长 ||a||。这些特征经过归一化和对数压缩后,通过一个3层MLP编码器 ℰ_k 映射为运动学令牌 H_kin。 运动学-音频融合:在音频DiT的每个Transformer块中,在自注意力层之后、原有的文本跨注意力层之前,插入一个辅助的跨注意力层。该层以音频潜在状态为查询(Query),以运动学令牌 H_kin 为键(Key)和值(Value),并应用RoPE保持时间对齐。输出通过一个可学习的门控机制(参数 γ,初始化为-10)与原始音频状态残差相加,从而自适应地平衡语义条件与运动学条件。 混合流匹配(视频训练目标): 这是另一个核心创新。在训练时,对视频潜在空间的不同区域采用不同的流匹配目标。 定义区域:根据轨迹坐标定义二值掩码 M,标识出轨迹经过的时空位置 Ω_traj。 混合目标: 在非轨迹区域 (M=0):采用标准流匹配目标,即从干净潜变量 x_0 到高斯噪声 ϵ 的线性插值。 在轨迹区域 (M=1):将噪声终点替换为之前构建的轨迹条件潜变量 x_traj,即从 x_0 到 x_traj 的插值。这迫使模型在这些区域学习保留轨迹注入的运动先验。 损失函数:视频损失被分解为轨迹区域损失 L_traj 和非轨迹区域损失 L_out 的加权和(权重均为0.5),以防止稀疏的轨迹区域被主导。音频损失沿用Ovi的原始损失。 输出:视频DiT和音频DiT分别去噪后,通过对应的VAE解码器生成视频帧序列和音频波形。 设计理由: ...

2026-04-19