MSCT: Differential Cross-Modal Attention for Deepfake Detection

📄 MSCT: Differential Cross-Modal Attention for Deepfake Detection #音频深度伪造检测 #注意力机制 #音视频 #多模态模型 ✅ 6.5/10 | 前10% | #音频深度伪造检测 | #注意力机制 | #音视频 #多模态模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 -1.0 | 置信度 高 👥 作者与机构 第一作者:Fangda Wei(北京理工大学) 通讯作者:Shenghui Zhao(北京理工大学,有星号标记) 作者列表:Fangda Wei(北京理工大学),Miao Liu(北京理工大学),Yingxue Wang(中国电子技术标准化研究院),Jing Wang(北京理工大学),Shenghui Zhao(北京理工大学),Nan Li(中国电子技术标准化研究院) 💡 毒舌点评 论文提出的“差分跨模态注意力”(DCA)模块设计巧妙,其通过注意力矩阵相减来增强模型对伪造内容敏感性的思路,确实指出了传统注意力机制在伪造检测任务中可能存在的目标冲突问题,是一个不错的洞察。然而,如此强调性能提升的论文,却在开源复现信息上“一毛不拔”,连基础的代码仓库或超参数都不公开,这无异于在沙滩上画出宏伟蓝图却不提供任何工具,对推动整个领域的可复现进步毫无贡献。 📌 核心摘要 要解决的问题:现有音频-视觉深度伪造检测方法主要依赖跨模态对齐,但传统的跨模态注意力机制可能与对齐损失目标冲突(对伪造内容不敏感),且缺乏有效的多尺度时间特征提取。 方法核心:提出多尺度跨模态Transformer编码器(MSCT),包含两个核心模块:差分跨模态注意力(DCA) 和 多尺度自注意力(MSSA)。DCA通过计算自注意力矩阵与跨模态注意力矩阵的差值,增强对伪造线索的关注。MSSA使用不同尺度的卷积处理Key矩阵,以整合相邻嵌入的多尺度时间信息。 与已有方法相比新在哪里:与传统跨模态注意力相比,DCA能更好地适配基于对齐损失的伪造检测任务;与标准自注意力相比,MSSA提供了更丰富的时间尺度感知能力,弥补了帧级特征提取的不足。 主要实验结果:在FakeAVCeleb数据集上,该方法取得了98.75%的准确率(ACC) 和 98.83%的AUC,显著优于表1中列出的所有基线方法,包括ACC为94.05%的MRDF-CE和96.30%的BusterX。消融实验(表2)表明,DCA模块(+1.25% ACC)比MSSA模块(+0.25% ACC)带来更大的性能增益。T-SNE可视化(图5)显示,本方法能更好地区分类别。 实际意义:提升了音视频深度伪造检测的准确性和鲁棒性,为多媒体内容安全提供了更强大的技术工具。 主要局限性:实验仅在单一数据集FakeAVCeleb上进行,缺乏跨数据集泛化性验证;未提供代码和详细复现参数,可复现性极差;与最新方法BusterX的对比缺少AUC指标。 🏗️ 模型架构 本文提出的多尺度跨模态Transformer编码器(MSCT)框架如图2所示,包含单模态特征提取和多模态特征融合两大模块。 预编码器:分别对音频(A_E)和视觉(V_E)输入进行处理。音频输入经过线性投影层;视觉输入使用集成了小波卷积和CBAM的改进版Res2Net,以提取多尺度视觉特征。 Transformer编码器:核心融合模块,包含6个Transformer块。每个块内集成本文提出的两个核心注意力模块: 多尺度自注意力(MSSA):用于提取单模态内部的多尺度时间特征。 差分跨模态注意力(DCA):用于融合来自两个模态的特征。以模态A为例,其结构如图3所示。 DCA模块接收来自模态B的查询(Q_B^cross)和模态A的键(K_A���、值(V_A)。它首先计算传统的跨模态注意力矩阵Attn_BA = Q_B^cross K_A^T,以及模态A的自注意力矩阵Attn_AA = Q_A K_A^T。然后,计算二者的差值作为最终的注意力矩阵Diff_Attn_A = Attn_AA - Attn_BA。最后,用此差值注意力矩阵与V_A相乘得到输出。其设计动机是:对于伪造视频,跨模态对齐损失会强烈约束Attn_BA,而Attn_AA不受影响,因此差值Diff_Attn_A会被放大,从而增强模型对伪造线索的敏感度。 ...

2026-04-29

Multimodal Self-Attention Network with Temporal Alignment for Audio-Visual Emotion Recognition

📄 Multimodal Self-Attention Network with Temporal Alignment for Audio-Visual Emotion Recognition #语音情感识别 #多模态模型 #跨模态 #音视频 🔥 8.0/10 | 前25% | #语音情感识别 | #多模态模型 | #跨模态 #音视频 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Inyong Koo(韩国科学技术院 电气工程学院) 通讯作者:未说明 作者列表:Inyong Koo(韩国科学技术院 电气工程学院)、Yeeun Seong(韩国科学技术院 绿色增长与可持续发展研究生院)、Minseok Son(韩国科学技术院 电气工程学院)、Jaehyuk Jang(韩国科学技术院 电气工程学院)、Changick Kim(韩国科学技术院 电气工程学院) 💡 毒舌点评 本文巧妙地将多模态融合中的“帧率错位”这一棘手工程问题,转化为位置编码设计问题(TaRoPE)并辅以一个显式的跨时间匹配损失(CTM),思路清晰且有效;但实验仅在CREMA-D和RAVDESS这两个规模相对有限且场景较“干净”的数据集上验证,其泛化能力至更复杂、更“野生”的场景尚待考察。 📌 核心摘要 问题:现有的音视频情感识别(AVER)方法在融合多模态特征时,常忽略音频与视频信号固有的帧率差异(如50FPS vs 30FPS),导致时间上对齐的特征未能同步,影响细粒度情感线索的捕捉和跨模态融合效果。 方法核心:提出一个基于Transformer的统一框架,其核心是“时间对齐”。具体包括:a) TaRoPE:一种改进的旋转位置编码,通过为不同模态设置与其帧率相关的旋转角度,隐式地在注意力计算中同步异步的音频-视频序列;b) CTM损失:一种跨时间匹配损失,利用时间高斯亲和度显式地鼓励在物理时间上邻近的音频和视频帧拥有相似的表示。 创新点:与之前仅依赖帧级注意力或忽略帧率问题的融合方法相比,本文首次系统性地在Transformer架构中,通过改进位置编码和引入辅助损失,直接且显式地建模和解决了多模态间的帧率不匹配问题,实现了更精准的时间对齐。 实验结果:在CREMA-D和RAVDESS两个基准数据集上,该方法分别取得了89.49%和89.25%的准确率,超越了所有近期强基线方法,树立了新的SOTA。消融实验表明,统一的多模态自注意力(MSA)块比堆叠的单模态/跨模态注意力更高效,且TaRoPE和CTM损失均带来了显著且一致的性能提升。 实际意义:该工作通过提升音视频情感识别的准确性,对改善人机交互体验(如智能客服、虚拟助手)和情感智能分析具有积极意义。其提出的时间对齐思路对其他需要融合异步多模态信号的任务(如语音-动作识别)也有启发。 主要局限性:1) 实验仅在受控实验室环境下录制的数据集上进行,对复杂真实场景的鲁棒性未知;2) 视频特征依赖于预计算的AU特征,可能无法充分利用原始视频中的高级视觉信息;3) 论文未提供代码和模型权重。 🏗️ 模型架构 如图1所示,整体框架是一个端到端的Transformer编码器,用于音视频情感分类。其完整流程如下: ...

2026-04-29

Noise-Robust AV-ASR Using Visual Features both in the Whisper Encoder and Decoder

📄 Noise-Robust AV-ASR Using Visual Features both in the Whisper Encoder and Decoder #语音识别 #预训练 #音视频 #鲁棒性 🔥 8.0/10 | 前25% | #语音识别 | #预训练 | #音视频 #鲁棒性 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhengyang Li(Technische Universität Braunschweig, Institute for Communications Technology) 通讯作者:未说明 作者列表:Zhengyang Li(Technische Universität Braunschweig, Institute for Communications Technology),Thomas Graave(Technische Universität Braunschweig, Institute for Communications Technology),Björn Möller(Technische Universität Braunschweig, Institute for Communications Technology),Zehang Wu(Technische Universität Braunschweig, Institute for Communications Technology),Matthias Franz(Technische Universität Braunschweig, Institute for Communications Technology),Tim Fingscheidt(Technische Universität Braunschweig, Institute for Communications Technology) 💡 毒舌点评 亮点:在LRS3基准的噪声测试(MUSAN babble, 0dB SNR)中,基于Whisper medium的“双用”方法相比强力的中间融合基线(Flamingo)取得了高达57%的相对错误率降低(4.07% vs. 9.53%),噪声鲁棒性提升非常显著且可复现。短板:方法的性能高度依赖于一个独立的、参数量庞大的预训练视觉编码器(AV-HuBERT large, 325M参数),这使得整个AV-ASR系统的总参数量远大于音频单模态Whisper,为实际部署(尤其是资源受限场景)带来了显著的计算开销。 ...

2026-04-29

OMNI-AVSR: Towards Unified Multimodal Speech Recognition With Large Language Models

📄 OMNI-AVSR: Towards Unified Multimodal Speech Recognition With Large Language Models #语音识别 #多任务学习 #多模态模型 #大语言模型 #音视频 🔥 8.5/10 | 前10% | #语音识别 | #多任务学习 | #多模态模型 #大语言模型 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Umberto Cappellazzo(Imperial College London, UK) 通讯作者:未说明 作者列表:Umberto Cappellazzo(Imperial College London, UK)、Xubo Liu(University of Surrey, UK)、Pingchuan Ma(Imperial College London, UK)、Stavros Petridis(Imperial College London, UK)、Maja Pantic(Imperial College London, UK) 💡 毒舌点评 这篇论文的亮点在于其“统一”和“弹性”的工程设计思想——用一个模型搞定三种语音识别任务,并在推理时按需调整计算量,这比训练一堆专用模型要高明得多,且实验数据扎实。但短板在于,其“统一”建立在对现有LLM(Llama/Qwen)的微调之上,核心创新更多是训练范式和适配策略的巧妙组合,而非提出一个新的基础架构,因此其天花板可能受限于基础LLM的能力。 📌 核心摘要 问题:现有的基于大语言模型(LLM)的语音识别方法通常为听觉语音识别(ASR)、视觉语音识别(VSR)和音视频语音识别(AVSR)分别训练独立的模型,这导致了高昂的计算和部署成本,且忽略了任务间的潜在协同。此外,它们依赖固定的令牌压缩率,限制了在准确率和效率之间灵活权衡的能力。 方法核心:本文提出Omni-AVSR,一个统一的音视频LLM框架,能在单一模型中支持ASR、VSR和AVSR,并支持弹性推理。其核心技术包括:a) 优化后的“套娃表示学习”训练范式,通过在训练时随机采样音频和视频压缩率,将训练成本从与压缩率组合数成正比降低到仅与任务数成正比;b) 探索了三种基于LoRA的参数高效微调策略(Omni-LoRA-S/T/ST),以平衡共享与任务特异性。 创新点:与先前工作相比,Omni-AVSR首次在单一模型中同时实现了:i) 对ASR、VSR和AVSR三种任务的统一支持;ii) 支持弹性推理的多粒度训练。这使其训练和部署资源需求显著低于需要为每个任务和压缩率组合训练单独模型的方法(如Llama-AVSR)。 实验结果:在LRS2和LRS3数据集上,Omni-AVSR在三种任务和多种压缩率下均达到与或优于独立SOTA模型(如Llama-AVSR, Llama-MTSK)的性能。例如,在LRS3上,Omni-AVSR-T的平均WER达到7.9%。模型在噪声环境下表现出鲁棒性。通过缩放实验发现,1-3B参数的LLM在性能与效率间取得了良好平衡。关键结果如下表所示: 表I:LRS2与LRS3数据集上不同压缩率的ASR/VSR/AVSR结果(WER%) ...

2026-04-29

PerformSinger: Multimodal Singing Voice Synthesis Leveraging Synchronized Lip Cues from Singing Performance Videos

📄 PerformSinger: Multimodal Singing Voice Synthesis Leveraging Synchronized Lip Cues from Singing Performance Videos #歌唱语音合成 #多模态模型 #音视频 📝 4.5/10 | 后50% | #歌唱语音合成 | #多模态模型 | #音视频 学术质量 3.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 低 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表:未说明 💡 毒舌点评 用唱歌视频的唇部动态来指导歌唱合成,这个多模态想法确实新颖,理论上能提升口型同步和表现力。但问题在于,仅凭标题我们对方法实现一无所知,更不知道实验效果是否真的‘Perform’了,这种‘黑箱’分析风险很高。 📌 核心摘要 这篇论文旨在解决传统歌唱语音合成(SVS)方法大多依赖音频或文本输入,缺乏对真实演唱中视觉动态(如唇部动作)的利用,可能导致合成结果在口型同步和表现力上存在不足的问题。其方法核心是提出一个多模态框架,直接从歌手表演视频中提取并利用同步的唇部线索(Lip Cues)作为条件来引导歌唱语音的生成。与已有方法相比,其新意在于将视觉模态(特别是唇部动态)作为一种强条件信号引入SVS任务,而不仅仅依赖于音频特征或乐谱。论文中未提供具体的实验结果数值和对比数据。该研究的实际意义在于可能为虚拟歌手、数字人演唱、歌曲创作等应用场景提供更自然、更具表现力的合成技术。由于提供的文本信息极其有限,论文的主要局限性完全未知,包括方法细节、实验设计、性能表现、数据规模及通用性等均未说明。 🏗️ 模型架构 论文中未提供具体架构描述。基于标题推断,模型可能包含以下组件:一个视觉编码器(用于从输入视频中提取唇部区域特征)、一个音频/声学编码器(用于处理参考歌声或目标音高/时长)、以及一个跨模态融合与解码模块(用于综合视觉唇部线索和其他条件生成最终的歌唱语音波形或梅尔频谱)。组件之间的数据流可能为:视频帧 -> 视觉特征;乐谱/文本/参考音频 -> 音声特征 -> 与视觉特征融合 -> 解码器 -> 合成语音。关键设计选择在于如何有效、同步地融合视觉与声学信息。由于未看到论文中的架构图,无法进行图片说明。 💡 核心创新点 引入同步唇部线索作为SVS条件:在歌唱语音合成任务中,首次(或较早)系统地利用来自表演视频的同步唇部视觉信息作为生成条件,这是核心的方法论创新。 跨模态对齐与融合:如何将时间序列上的视觉唇部动态与音频演唱信号进行精确对齐和有效融合,是一个关键的技术挑战,其具体的融合机制(如注意力机制、拼接、门控等)是创新点。 (推测)提升合成自然度与表现力:该创新旨在解决传统SVS可能存在的口型不自然、表现力单一的问题,通过视觉线索注入更多人类表演的细微动态。 🔬 细节详述 训练数据:未说明。 损失函数:未说明。 训练策略:未说明。 关键超参数:未说明。 训练硬件:未说明。 推理细节:未说明。 正则化或稳定训练技巧:未说明。 📊 实验结果 论文中未提供具体数值和实验结果表格或图表。因此,无法列出主要的benchmark对比数据、消融实验结果或细分条件下的性能。论文的核心假设——即引入唇部线索能提升歌唱合成质量——缺乏可验证的证据支持。 ...

2026-04-29

Prototype-Guided Cross-Modal Contrastive Learning for Continual Audio-Visual Sound Separation

📄 Prototype-Guided Cross-Modal Contrastive Learning for Continual Audio-Visual Sound Separation #语音分离 #对比学习 #持续学习 #多模态模型 #音视频 ✅ 7.5/10 | 前25% | #语音分离 | #对比学习 | #持续学习 #多模态模型 学术质量 6.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Wanrong Ma (国防科技大学计算机科学与技术学院,2. 国防科技大学并行与分布式计算国家重点实验室) (注:论文标注为共同第一作者) 通讯作者:Kele Xu (国防科技大学计算机科学与技术学院,2. 国防科技大学并行与分布式计算国家重点实验室) 作者列表:Wanrong Ma(国防科技大学计算机科学与技术学院;国防科技大学并行与分布式计算国家重点实验室)、Hongyu Wen(国防科技大学计算机科学与技术学院;国防科技大学并行与分布式计算国家重点实验室)、Zijian Gao(国防科技大学计算机科学与技术学院;国防科技大学并行与分布式计算国家重点实验室)、Qisheng Xu(国防科技大学计算机科学与技术学院;国防科技大学并行与分布式计算国家重点实验室)、Kele Xu(国防科技大学计算机科学与技术学院;国防科技大学并行与分布式计算国家重点实验室) 💡 毒舌点评 该工作在持续学习与多模态声音分离的交叉领域做得扎实,用原型和对比学习“框住”特征空间的想法巧妙且实验效果显著。但任务场景较为细分,且论文完全没提代码开源,对于想快速复现或在其他多模态任务上借鉴的读者不太友好。 📌 核心摘要 问题:本文研究持续音视频声音分离(CAVSS),即模型需在不断学习新声音类别的同时,不忘记如何分离已学类别的声音。主要挑战是灾难性遗忘(学新忘旧)和跨模态干扰(不同类别或不同模态的特征在表示空间中纠缠不清)。 方法核心:提出原型引导的跨模态对比学习(PGCCL) 框架。核心是为每个声音类别维护一个类级原型(该类别所有样本多模态特征的平均),将其作为锚点来构建和约束多模态表示空间。训练时,原型与当前批次的样本特征一起,进行成对的跨模态对比学习(音频-运动、音频-物体、运动-物体),以增强类间可分性和类内一致性。同时,使用指数移动平均(EMA) 机制更新模型参数和原型以稳定特征,并结合掩码蒸馏保留旧任务知识。 创新点:与现有基于样本回放或参数正则化的方法(如AV-CIL, ContAV-Sep)相比,PGCCL的创新在于:(1) 引入类级原型作为稳定锚点,直接结构化表示空间;(2) 设计了一种将原型融入批次进行跨模态对比学习的机制,同时强化实例判别和类别对齐;(3) 结合EMA和掩码蒸馏,在持续学习中更好地平衡稳定性与可塑性。 实验结果:在MUSIC-21数据集上的实验表明,PGCCL显著优于所有基线方法。在最后一个学习步骤上,其SDR达到8.16(最强基线ContAV-Sep为6.49),SIR和SAR也分别为14.11和13.26。在所有步骤的平均性能上,SDR为6.87。消融实验证明原型对比学习(PRO)、EMA和掩码蒸馏(MD)三个组件共同作用时性能最佳(SDR 7.88)。增加回放样本数(NS)能持续提升性能。t-SNE可视化(图2)显示PGCCL产生的多模态特征边界更清晰,重叠更少。 实际意义:为动态环境中的音频-视觉协同处理(如机器人、增强现实、辅助听觉设备)提供了一种可扩展的持续学习解决方案。 主要局限性:实验仅在一个数据集(MUSIC-21,仅21类乐器)上进行,验证了方法在该设置下的有效性,但对其在更复杂、更多样的真实世界声音场景中的泛化能力尚未验证。此外,论文未提供代码,限制了可复现性和快速验证。 🏗️ 模型架构 PGCCL框架(图1)旨在处理持续音视频声音分离任务。其整体流程和核心组件如下: ...

2026-04-29

PSTalker: Realistic 3D Talking Head Synthesis via a Semantic-Aware Audio-Driven Point-Based Shape

📄 PSTalker: Realistic 3D Talking Head Synthesis via a Semantic-Aware Audio-Driven Point-Based Shape #语音合成 #音视频 #3D音频 #生成模型 #实时处理 ✅ 7.5/10 | 前25% | #说话人合成 | #3D音频 | #语音合成 #音视频 学术质量 7.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Zhongyuan Zhao(北京大学电子与计算机工程学院,鹏城实验室) 通讯作者:Kanglin Liu(鹏城实验室) 作者列表:Zhongyuan Zhao(北京大学电子与计算机工程学院,鹏城实验室)、Qing Li(鹏城实验室)、Kanglin Liu(鹏城实验室) 💡 毒舌点评 论文巧妙地将语义先验融入点基形状表示,有效解决了头颈接合处的“断裂”伪影,这是当前3DGS方法的一个显著痛点,体现了其工程洞察力。然而,其对非刚性形变(如头发细节)的建模能力、以及在多人种、复杂表情下的泛化能力验证略显不足,且“高保真”渲染的细节处理(如动态光照、微表情)仍有提升空间。 📌 核心摘要 问题:现有的音频驱动3D说话头生成方法(基于NeRF或3DGS)存在唇同步不准确、在头部转动时头颈接合处产生伪影、以及合成结果缺乏参数化可控性三大挑战。 核心方法:提出PSTalker框架,包含两大核心:语义感知点基形状模型——在FLAME网格上基于语义标签采样点,并沿法线方向偏移,以统一建模面部与非面部(如头发、躯干)结构;刚柔耦合合成模型——将音频驱动的灵活面部变形与基于线性混合蒙皮的头部刚体运动显式耦合,增强运动稳定性。 创新性:1)提出SAPS模型,首次用统一的点基表示解决了头颈几何连贯性问题;2)设计RFC模型,将高自由度的音频到运动映射锚定在稳定的几何先验上,提升了唇同步精度和运动自然性;3)继承了FLAME的参数化控制能力,实现了对合成结果的姿态编辑。 主要实验结果:在四个说话人数据集上进行自驱动和跨驱动测试。在跨驱动设置下,本文方法(Sync-C: 6.9982, Sync-D: 7.9911)显著优于最强基线TalkingGaussian(Sync-C: 6.4075, Sync-D: 8.4689)。消融实验表明,移除SAPS或RFC均导致唇同步指标(Sync-C)和运动自然度指标(AUE)明显下降。 实际意义:为生成可控、逼真、无伪影的3D说话头像提供了高效方案,可应用于虚拟社交、数字人直播、影视配音等场景。 主要局限性:方法依赖于针对特定说话人的短视频进行训练,限制了其对高度发散音频模式(如歌唱)的泛化能力;论文未提供代码和模型,开源信息不足。 🏗️ 模型架构 PSTalker是一个两阶段的框架,旨在从音频和参考视频生成逼真的、可控制的3D说话头像。 整体流程(如图2所示): 图2: pdf-image-page2-idx1] ...

2026-04-29

Purification Before Fusion: Toward Mask-Free Speech Enhancement for Robust Audio-Visual Speech Recognition

📄 Purification Before Fusion: Toward Mask-Free Speech Enhancement for Robust Audio-Visual Speech Recognition #音视频 #语音识别 #语音增强 #多任务学习 #端到端 ✅ 7.5/10 | 前25% | #语音识别 | #多任务学习 | #音视频 #语音增强 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Linzhi Wu (University of Electronic Science and Technology of China, Chengdu, China) 通讯作者:Xingyu Zhang (Defense Innovation Institute, Academy of Military Sciences, Beijing, China) 作者列表: Linzhi Wu (电子科技大学) Xingyu Zhang* (军事科学院国防创新研究院) Hao Yuan (北京大学) Yakun Zhang (军事科学院国防创新研究院) Changyan Zheng (High-tech Institute, Weifang, China) Liang Xie (军事科学院国防创新研究院) Tiejun Liu (电子科技大学) Erwei Yin (军事科学院国防创新研究院) 💡 毒舌点评 这篇论文提出了一个清晰的“先净化再融合”新范式,用端到端学习替代了脆弱的显式掩码生成,想法简洁有效,在LRS3数据集上也取得了不错的性能提升。然而,其最大的短板在于完全的“闭源”状态,没有提供代码、模型或训练细节,对于希望跟进或复现的读者来说,这意味着需要从零开始摸索架构细节和训练策略,极大增加了实践门槛。 ...

2026-04-29

RAP: Real-Time Audio-Driven Portrait Animation with Video Diffusion Transformer

📄 RAP: Real-Time Audio-Driven Portrait Animation with Video Diffusion Transformer #音视频 #扩散模型 #流匹配 #DiT ✅ 7.0/10 | 前25% | #音视频 | #扩散模型 | #流匹配 #DiT 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Fangyu Du (Soul AI, Xi’an Jiaotong University), Taiqing Li (Soul AI, Dalian University of Technology) (论文标注为共同第一作者) 通讯作者:Shunshun Yin (Soul AI), Siyuan Liu (Soul AI) (论文标注为共同通讯作者,且Siyuan Liu为项目负责人) 作者列表:Fangyu Du (Soul AI, Xi’an Jiaotong University), Taiqing Li (Soul AI, Dalian University of Technology), Qian Qiao (Soul AI), Tan Yu (Soul AI), Dingcheng Zhen (Soul AI), Ziwei Zhang (Soul AI), Xu Jia (Dalian University of Technology), Yang Yang (Xi’an Jiaotong University), Shunshun Yin (Soul AI), Siyuan Liu (Soul AI) 💡 毒舌点评 这篇论文在“实时”这个硬约束下,非常工程化地解决了高压缩潜在空间中的唇形同步和长视频生成漂移这两个核心痛点,展现了不错的系统设计能力。但其核心创新(混合注意力和训练策略)更多是针对特定问题的有效工程组合,而非开辟新范式;此外,虽然强调实时,但高压缩率(LTX-VAE)对图像纹理细节的潜在损失并未被深入讨论,这可能是其实时性与质量权衡中一个未被充分审视的代价。 ...

2026-04-29

Rethinking Entity Disambiguation in Complex Modalities

📄 Rethinking Entity Disambiguation in Complex Modalities #多模态模型 #实体消歧 #对比学习 #音视频 #数据集 🔥 8.0/10 | 前25% | #实体消歧 | #多模态模型 | #对比学习 #音视频 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Yingyao Ma(东南大学计算机科学与工程学院) 通讯作者:Jiasong Wu(*,东南大学计算机科学与工程学院) 作者列表:Yingyao Ma(东南大学计算机科学与工程学院),Yifan Xue(东南大学计算机科学与工程学院),Wanqiang Cai(东南大学计算机科学与工程学院),Yuanyuan Zhou(东南大学计算机科学与工程学院),Jiasong Wu(东南大学计算机科学与工程学院),Lotfi Senhadji(法国雷恩大学,INSERM,LTSI-UMR 1099),Huazhong Shu(东南大学计算机科学与工程学院) 💡 毒舌点评 亮点:论文系统性地将实体消歧任务从传统文本/静态图像扩展到动态的视频、音频等“复杂模态”,并为此构建了一个专用的多模态数据集,填补了特定场景下的研究空白。短板:音频模态的处理略显“工具化”,主要通过ASR转文本再匹配来利用,对音频波形本身的声学特征(如音色、韵律)利用不足,可能限制了其在语音主导场景下的性能上限。 📌 核心摘要 问题:传统实体消歧方法主要依赖静态的文本或图像信息,难以处理真实世界中日益复杂的、包含动态视频和音频信息的多模态场景。 方法核心:提出CMED(Complex-Modality Entity Disambiguation)框架,包含两个关键模块:提及中心特征定位与提取模块(通过关键帧采样、音频定位网络等定位与提及相关的多模态信息)和多级相似度计算模块(计算文本、全局视频、局部视频等多个层面的提及-实体相似度)。框架利用对比学习进行联合训练。 新意:与现有仅处理文本或图文的方法相比,CMED首次统一处理文本、视频、音频三种模态。创新点在于设计了针对复杂模态的特征定位机制(如视频帧采样、音频上下文定位)以及多层次(全局/局部)的多模态特征融合与匹配策略。 实验结果:论文构建了包含中文新闻视频、音频和文本的Focus数据集。在Focus-H(标题作为上下文)和Focus-A(音频转写作为上下文)两个版本上,CMED显著超越所有基线。例如,在Focus-H数据集上,CMED的Hits@1为74.41%,相比最强视频基线(CLIP4Clip)的64.49%提升近10个百分点,MRR从75.30提升至81.69。消融实验表明,全局特征、局部特征、视频帧采样网络、音频定位网络和上下文增强等所有组件对性能均有贡献。 实际意义:为动态、复杂的多模态信息环境(如新闻视频分析)提供了更鲁棒的实体消歧解决方案,有助于提升下游任务(如信息抽取、问答)的准确性。 主要局限性:1) Focus数据集规模中等(约7k样本),且来源于特定领域的中文新闻视频��模型的跨领域、跨语言泛化能力有待验证;2) 音频模态的利用方式相对间接(ASR转文本),未深度挖掘原始音频信号的特性;3) 实时性或流式处理能力未被讨论。 🏗️ 模型架构 CMED框架(如图2所示)旨在处理一个包含视频、提及词和辅助上下文(标题或音频转写)的样本,并将其与知识库中的实体进行匹配。整体流程可分为两个核心模块: 提及中心特征定位与提取模块 该模块负责从原始多模态数据中提取与“提及”最相关的特征。 输入:提及样本 m = (mvideo, mword, mcontext), 其中 mvideo 是视频,mword 是提及词,mcontext 可以是新闻标题或音频转写。 视频预处理:使用DCT感知哈希算法对长视频进行关键帧采样,得到关键帧序列 V = [F1, F2, ..., Ft],减少冗余计算。 音频上下文预处理(当使用音频时):通过ASR获取音频转写文本序列 [A1, A2, ..., An],用SBERT编码,计算与提及词嵌入的余弦相似度,选择最相关的句子作为音频增强上下文 C_Audio,并按模板拼接成 C_M。 文本上下文预处理:直接将新闻标题 C_Headline 与提及词按模板拼接成文本增强上下文 C_M。 全局特征生成器:聚合所有关键帧的视觉特征,生成全局视频表示 V_G。论文探索了三种方式:Mean Pooling、LSTM、Transformer。 局部特征生成器:定位并提取与上下文 C_M 最相关的关键帧。通过计算每帧特征 F^i 与 C_M 的余弦相似度 S_f(i),选择相似度最高的帧 î 的特征作为局部视觉特征 V_L。 (图2:CMED框架概览。展示了从多模态输入(视频、文本、音频)到特征提取、多级相似度计算直至最终预测的完整流程。) ...

2026-04-29