FastAV: Efficient Token Pruning for Audio-Visual Large Language Model Inference

📄 FastAV: Efficient Token Pruning for Audio-Visual Large Language Model Inference #音频问答 #大语言模型的压缩与加速 #音视频 #多模态模型 ✅ 7.0/10 | 前25% | #音频问答 | #大语言模型的压缩与加速 | #音视频 #多模态模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Chaeyoung Jung(韩国科学技术院,Korea Advanced Institute of Science and Technology, South Korea) 通讯作者:未说明 作者列表:Chaeyoung Jung(韩国科学技术院)、Youngjoon Jang(韩国科学技术院)、Seungwoo Lee(韩国科学技术院)、Joon Son Chung(韩国科学技术院) 💡 毒舌点评 亮点:本文敏锐地发现了现有token剪枝研究在音视频大语言模型领域的空白,并首次提出了系统性的解决方案,其两阶段剪枝策略(全局剪枝+精细剪枝)在实验上取得了显著且一致的效率提升(>40% FLOPs降低),且不损害甚至能提升性能,这对于推动此类昂贵模型的实际部署具有明确的工程价��。 短板:技术路线本质上是对视觉token剪枝方法的“移植”和“拼接”(全局剪枝基于视觉工作常见的注意力回溯,精细剪枝基于LLM剪枝中常见的最后token分析),在剪枝机制本身上创新有限。此外,实验对比集中在自身设定的不同剪枝策略上,缺乏与更多元、更强的基线方法(如其他可能适用于多模态的剪枝或加速技术)的横向比较。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:论文中使用的AVQA、MUSIC-AVQA、AVHBench为公开数据集,但论文未说明具体获取或预处理方式。 Demo:未提及。 复现材料:论文给出了关键超参数(剪枝层选择、P=20%、保留的token数量),描述了剪枝算法的公式和步骤,但未提供完整的配置文件、脚本或检查点。 论文中引用的开源项目:引用了VideoLLaMA2和video-SALMONN2作为基线模型,并链接了VideoLLaMA2的GitHub仓库(https://github.com/DAMO-NLP-SG/VideoLLaMA2/tree/audio_visual),但这是基线模型的仓库,而非FastAV的实现。 📌 核心摘要 要解决的问题:音视频大语言模型在处理包含音频、视频、文本的多模态输入时,token数量巨大,导致推理时内存消耗和计算成本剧增,限制了其实际应用。 方法核心:提出FastAV,一个两阶段的推理时token剪枝框架。第一阶段在中间层进行“全局剪枝”,利用注意力回溯机制分析token重要性,移除位置靠后、影响力较弱的大部分token(如2/3);第二阶段在后续层进行“精细剪枝”,基于最后一个查询token的注意力权重,逐层迭代移除最不重要的20% token。 与已有方法相比新在哪里:这是首个专门为音视频大语言模型设计的token剪枝框架。不同于直接应用在纯文本LLM或视觉-语言模型上的方法,FastAV综合考虑了音视频模态的特点,并通过注意力回溯揭示了此类模型在中间层后注意力集中于早期token的“锚定”模式,从而设计了针对性的剪枝策略。 主要实验结果:在VideoLLaMA2和video-SALMONN2两个模型上,FastAV将理论FLOPs降低了40%以上(见表1),同时推理速度提升约30%,内存占用降低。在AVQA, MUSIC-AVQA, AVHBench三个基准测试上,性能保持持平甚至有所提升(例如在AVHBench的AV匹配任务上,VideoLLaMA2的准确率从57.8%提升至69.0%)。消融实验表明,基于注意力回溯的全局剪枝策略优于随机剪枝和基于原始注意力权重的策略(表2),精细剪枝的剪枝比例P=20%为最优(表4)。 实际意义:使音视频大语言模型能够更高效地处理长视频、复杂音频等多模态长上下文输入,降低了部署的硬件门槛和延迟,有助于推动其在实时交互、边缘设备等场景的应用。 主要局限性:剪枝策略的有效性依赖于“注意力在中间层后集中于早期token”这一观察,该模式是否在所有音视频大语言模型和任务中普遍存在尚不明确。此外,论文未探讨该剪枝框架对模型训练或微调阶段的影响,也未提供理论保证证明性能不会在更极端的压缩下下降。 🏗️ 模型架构 FastAV本身并非一个独立的音视频大语言模型,而是一个应用于现有模型(如VideoLLaMA2、video-SALMONN2)推理阶段的加速框架。其整体流程如图3所示。 图3:FastAV框架概览。输入序列包含视频(X_vis)、音频(X_aud)和文本(X_lang)token。整体推理过程(a)在中间层(L/2)进行全局剪枝,在后续层进行精细剪枝。剪枝机制(b)展示了全局剪枝依据注意力回溯,精细剪枝依据最后查询token的注意力分析。 ...

2026-04-29

FastEnhancer: Speed-Optimized Streaming Neural Speech Enhancement

📄 FastEnhancer: Speed-Optimized Streaming Neural Speech Enhancement #语音增强 #神经网络 #流式处理 #实时处理 🔥 8.5/10 | 前25% | #语音增强 | #神经网络 | #流式处理 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Sunghwan Ahn(首尔大学电气与计算机工程系,INMC) 通讯作者:未说明(论文中提供了多位作者的邮箱,但未明确指定通讯作者) 作者列表:Sunghwan Ahn(首尔大学电气与计算机工程系,INMC)、Jinmo Han(首尔大学电气与计算机工程系,INMC)、Beom Jun Woo(首尔大学电气与计算机工程系,INMC)、Nam Soo Kim(首尔大学电气与计算机工程系,INMC) 💡 毒舌点评 亮点在于它像一位精明的工程师,将“简单即高效”的哲学贯穿始终,用看似基础的编码器-解码器和精心挑选的RNNFormer模块,在单CPU线程上跑出了碾压一众复杂架构的推理速度,证明了花哨不等于高效。短板则是其架构的核心创新(RNNFormer的特定组合)更像是一个面向工程目标的“最优配置”而非颠覆性理论突破,且论文并未深入探讨模型在极端非平稳噪声或严重混响下的性能边界。 🔗 开源详情 代码:提供代码仓库链接:https://github.com/aask1357/fastenhancer 模型权重:明确提及提供预训练权重(见论文脚注1)。 数据集:使用公开的VCTK-Demand数据集,论文中未提供获取链接,但该数据集��常用公开数据集。 Demo:论文中未提及提供在线演示。 复现材料:提供了详细的模型架构图、所有模型尺寸的配置表(表1)、完整的损失函数公式、训练优化器、学习率调度、批大小等关键超参数,复现信息较为充分。 论文中引用的开源项目:使用了ONNXRuntime进行推理性能评估,使用了torch-pesq计算PESQ损失。 📌 核心摘要 这篇论文针对流式语音增强任务中,现有深度学习模型虽然参数量和MACs减少,但因架构复杂导致在通用硬件(如单CPU线程)上实际推理延迟高的问题,提出了FastEnhancer模型。其方法核心是采用一个简单的编码器-解码器结构,并引入了一种新型的RNNFormer模块,该模块在时间轴使用高效的GRU,在频率轴使用多头自注意力机制(MHSA),以兼顾低延迟流式处理与全局频率关系建模。与先前研究相比,新方法摒弃了复杂的子带分解和分组DPRNN设计,转而追求架构的简洁性和针对速度的优化(如仅使用时间轴卷积核大小为1的卷积、可融合的批归一化层)。主要实验结果在VCTK-Demand数据集上显示,FastEnhancer在多个尺寸配置下均达到了SOTA的语音质量和可懂度指标(例如,FastEnhancer-B在PESQ上达到3.13,STOI达到94.5%),同时实现了所有对比模型中最低的实时因子(RTF),其中FastEnhancer-T在Xeon CPU上的RTF仅为0.012。该工作的实际意义在于为实时、资源受限的设备(如助听器、智能家居)提供了一个高性能且超低延迟的语音增强解决方案。主要局限性是论文的实验主要集中在客观指标和特定硬件上的RTF,未报告主观听感测试或在更多样化的真实噪声场景下的泛化性能,且对模型处理极端复杂声学条件的能力探讨不足。 实验结果表格1:在VCTK-Demand数据集上的性能对比 模型 参数量 (K) MACs RTF (Xeon) RTF (M1) DNSMOS (P.808) SISDR PESQ STOI ESTOI WER GTCRN 24 40M 0.060 0.042 3.43 18.8 2.87 0.940 0.848 3.6 LiSenNet (可流式) 37 56M 0.034 0.028 3.42 18.5 2.98 0.941 0.851 3.4 FSPEN 79 64M 0.046 0.038 3.40 18.4 3.00 0.942 0.850 3.6 BSRNN 334 245M 0.059 0.062 3.44 18.9 3.06 0.942 0.855 3.4 FastEnhancer-T 22 55M 0.012 0.013 3.42 18.6 2.99 0.940 0.850 3.6 FastEnhancer-B 92 262M 0.022 0.026 3.47 19.0 3.13 0.945 0.861 3.2 FastEnhancer-S 195 664M 0.034 0.048 3.49 19.2 3.19 0.947 0.866 3.2 FastEnhancer-M 492 2.9G 0.101 0.173 3.48 19.4 3.24 0.950 0.873 2.8 FastEnhancer-L 1105 11G 0.313 0.632 3.53 19.6 3.26 0.952 0.877 3.1 实验结果表格2:消融研究 ...

2026-04-29

FD-ARL: Feature Disentanglement with Adversarial-Reconstruction Learning for Cross-Subject Auditory Attention Decoding

📄 FD-ARL: Feature Disentanglement with Adversarial-Reconstruction Learning for Cross-Subject Auditory Attention Decoding #听觉注意力解码 #领域适应 #Transformer #脑电信号 ✅ 7.5/10 | 前10% | #听觉注意力解码 | #领域适应 | #Transformer #脑电信号 学术质量 8.0/7 | 选题价值 8.5/2 | 复现加成 8.0 | 置信度 高 👥 作者与机构 第一作者:Yuan Liao(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院) 通讯作者:Siqi Cai(哈尔滨工业大学(深圳)智能科学与工程学院) 作者列表:Yuan Liao(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院)、Haoqi Hu(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院)、Siqi Cai(哈尔滨工业大学(深圳)智能科学与工程学院)、Haizhou Li(香港中文大学(深圳)人工智能学院,数据科学学院,深圳研究院) 💡 毒舌点评 亮点:论文精准地抓住了跨被试脑电解码的核心痛点——“个体差异”与“任务相关性”的纠缠,并提出了一个逻辑自洽的“解耦”框架(特征拆分+对抗抹除身份+重建保留信息),实验上也取得了扎实的性能提升。短板:重建损失的具体作用机制(是防止信息丢失还是隐式正则化)讨论不足,且仅验证了跨被试泛化,未涉及跨范式(如噪声环境、听觉刺激参数变化)的泛化,限制了其结论的普遍性。 🔗 开源详情 代码:论文中提供了一个GitHub仓库链接 https://github.com/LiaoEuan/FD-ARL,但注明“将公开访问”,表明代码在论文发表时尚未正式开源。 模型权重:未提及。 数据集:评估使用的是公开数据集(KUL, DTU),论文中未提供获取方式的具体链接,但注明了来源参考文献。 Demo:未提及。 复现材料:论文中提供了非常详细的模型架构、超参数设置(学习率、批量大小、优化器、网络维度等)和训练策略,这些信息对复现至关重要。 论文中引用的开源项目:论文中未明确列出依赖的开源工具或模型,主要基于自行实现的架构。 📌 核心摘要 问题:基于脑电图(EEG)的听觉注意力解码(AAD)模型在跨被试场景下泛化性能差,主要原因是个体间脑电信号差异大,且现有方法难以提取与任务相关且与个体无关的鲁棒特征。 方法核心:提出FD-ARL框架。首先用并行时空Transformer编码器提取EEG特征。然后,将特征解耦为任务相关码(ztask)和特定于被试的码(zsubj)。最后,通过对抗训练(利用梯度反转层)迫使ztask对被试身份不变,同时通过重建损失确保解耦过程保留关键信息。 创新点:这是首次将双分支Transformer与对抗-重建解耦方案相结合用于EEG-AAD。与传统领域对抗网络(DANN)不同,它不是将整个特征强制对齐,而是显式地分离出应保持不变的任务特征和应被忽略的个体特征。 主要实验结果:在KUL和DTU两个公开数据集上,采用严格的留一被试交叉验证(LOSO-CV)。FD-ARL在所有条件下均达到了最佳性能。例如,在KUL数据集2秒窗口下,准确率达74.6%,比此前最优的DARNet(71.9%)高出2.7个百分点。消融实验证明了每个模块(对抗、重建、时空分支)的贡献。 实际意义:该工作为解决BCI和神经辅助设备中的跨用户泛化问题提供了有效方案,推动了听觉注意力解码技术向实用化迈进。 主要局限性:研究仅聚焦于跨被试泛化,未探讨模型在更复杂声学环境(如高噪声、不同空间布局)下的鲁棒性;重建损失的具体作用机制可以进一步剖析;实验仅限于特定数据集的二分类(左/右)任务,结论的普适性有待更广泛验证。 🏗️ 模型架构 FD-ARL的整体架构(图1)分为两个阶段:并行时空特征编码和特征解耦与学习。 ...

2026-04-29

FDCNet: Frequency Domain Channel Attention and Convolution for Lipreading

📄 FDCNet: Frequency Domain Channel Attention and Convolution for Lipreading #视觉语音识别 #频域处理 #注意力机制 #数据增强 🔥 8.5/10 | 前25% | #视觉语音识别 | #频域处理 | #注意力机制 #数据增强 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Qianxi Yan(浙江大学) 通讯作者:Qifei Zhang(浙江大学) 作者列表: Qianxi Yan(浙江大学) Qifei Zhang*(浙江大学,通讯作者) Lei Zhang(中国科学院大学) Linkun Yu(日本早稻田大学生产系统研究生院) Lei Sheng(宁波市知识产权保护中心) 💡 毒舌点评 论文的亮点在于视角新颖,首次系统性地将频域协同处理(频域增强与频谱引导的注意力)引入唇读前端,为处理唇部动作的混合频率信号提供了合理的理论框架。短板是创新点SGCA和FADC的具体交互机制在图中未清晰展示,且92.2%到92.5%的提升虽达成SOTA,但幅度有限,难以断言是质变而非量变。 🔗 开源详情 代码:论文中未提及任何代码仓库链接或开源计划。 模型权重:论文中未提及公开的模型权重。 数据集:使用的是公开的LRW数据集,但论文未说明其获取方式(标准公开数据集)。 Demo:未提及。 复现材料:提供了详细的训练配置(数据增强、优化器、学习率、调度策略等),但未提供最终的模型检查点、训练日志或详细的配置文件。论文中未提及开源计划。 论文中引用的开源项目:论文引用了多个已发表的方法(如ResNet, TSM, TCN, DC-TCN等)作为基线,但未明确说明其实现或代码来源。 📌 核心摘要 问题:传统唇读前端方法主要在空间域提取特征,难以有效处理唇部动作这种混合了低频宏观轮廓和高频细节的复杂信号,导致关键信息提取不足。 方法:提出一个频域协同网络(FDCNet)。其核心是两个模块:(1)频域自适应卷积(FADC),在频域通过动态加权的多尺度卷积核对不同频率成分进行差异化增强;(2)频谱引导的通道注意力(SGCA),利用完整的傅里叶幅度谱作为全局描述符,来筛选具有判别力的特征通道。 ...

2026-04-29

FED-PISA: Federated Voice Cloning Via Personalized Identity-Style Adaptation

📄 FED-PISA: Federated Voice Cloning Via Personalized Identity-Style Adaptation #联邦学习 #语音克隆 #语音合成 #低秩适配 #个性化学习 🔥 8.0/10 | 前25% | #语音克隆 | #联邦学习 | #语音合成 #低秩适配 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Qi Wang(鹏城实验室;中国科学院计算技术研究所;中国科学院大学) 通讯作者:未说明 作者列表:Qi Wang(鹏城实验室,中国科学院计算技术研究所,中国科学院大学)、Shituo Ma(中国科学院信息工程研究所,中国科学院大学)、Guoxin Yu(鹏城实验室)、Hanyang Peng(鹏城实验室)、Yue Yu(鹏城实验室) 💡 毒舌点评 亮点: 论文框架设计巧妙,通过解耦“身份(ID-LoRA)”和“风格(Style-LoRA)”,并借鉴协同过滤思想进行个性化聚合,优雅地解决了联邦学习中“隐私保护-通信效率-个性化”三者间的矛盾,是一个完整且实用的系统方案。 短板: 实验部分缺少对最新、最强的端到端语音大模型(如GPT-SoVITS的最新版本或CosyVoice 2的直接微调基线)的深入对比,使得其“显著优于零样本方法”的结论在当前技术背景下略显单薄,也未能充分展示其在更复杂(如跨语言)场景下的泛化能力。 🔗 开源详情 代码: 提供了一个Hugging Face Spaces Demo链接 (https://huggingface.co/spaces/sDuoluoluos/FedPISA-Demo),但论文未提供完整的训练或评估代码仓库链接。 模型权重: 论文未提及是否公开FED-PISA或其组件(如训练好的ID-LoRA、Style-LoRA)的权重。 数据集: 使用了四个公开数据集(ESD, EmoV-DB, RAVDESS, CREMA-D),并说明了数据获取与预处理方式,但未提供统一的预处理后数据包。 Demo: 提供了在线演示链接。 复现材料: 论文非常详细地给出了模型配置(骨干版本、LoRA秩/缩放)、训练超参数(学习率、batch size、轮数、步数分配)、优化器、评估指标(包括使用的模型,如Whisper, emotion2vec, ECAPA-TDNN)和硬件环境,复现细节充分。 引用的开源项目: GPT-SOVITS-V4(作为骨干)、emotion2vec(用于风格标签映射和评估)、Whisper-large-v3 Turbo(用于文本标注和WER/CER计算)、SpeechBrain(提供ECAPA-TDNN用于说话人相似度评估)。 论文中未提及代码仓库链接和模型权重下载地址,但提供了Demo链接。 📌 核心摘要 问题: 现有联邦语音克隆(TTS)方法面临两大挑战:高昂的通信开销和对说话人风格异质性的抑制,导致个性化不足。 方法核心: 提出FED-PISA框架。其核心是解耦的LoRA机制:为每个客户端维护一个私有的、冻结的ID-LoRA(捕捉音色),以及一个可全局通信的、轻量的Style-LoRA(捕捉风格)。服务器端采用受协同过滤启发的个性化聚合策略,为每个客户端从风格相似的对等方学习,生成定制化的风格模型。 创新点: 与传统联邦TTS相比,新在:1)首次在联邦语音克隆中实现身份与风格的解耦设计,通过LoRA分离;2)引入个性化聚合算法(基于风格相似度的注意力加权),主动利用而非抑制风格异质性;3)在强大的预训练骨干(GPT-SOVITS-V4)上应用PEFT,显著提升框架的性能上限。 主要实验结果: 在四个公开数据集(ESD, EmoV-DB, RAVDESS, CREMA-D)上进行50轮联邦训练。关键结果见下表。FED-PISA在风格表达性(SE: 0.704)、说话人相似度(SS: 0.645)、自然度(nMOS: 4.08)和正确率(WER: 2.70%)上均优于所有基线,同时通信开销(45.8 GiB)远低于其他联邦方法。 方法 骨干 SE ↑ WER (%) ↓ SS ↑ nMOS ↑ 通信开销 (GiB) ↓ 零样本 (COSYVOICE2) - 0.659 7.20 0.619 3.84 - 本地微调 (LoRA) GPT-SOVITS-V4 0.626 3.35 0.529 3.36 - FedSpeech FASTSPEECH2 0.416 6.82 0.556 3.77 145.28 Fed Dy. Trans. TRANSFORMER-TTS 0.463 8.75 0.602 3.72 456.35 FED-PISA (Ours) GPT-SOVITS-V4 0.704 2.70 0.645 4.08 45.8 实际意义: 为在隐私保护前提下,实现高效、高保真的个性化语音合成提供了一个可行的联邦学习解决方案,有助于推动语音合成技术在边缘设备和隐私敏感场景(如个人设备)中的应用。 主要局限性: 1)框架假设客户端拥有可用于初始化ID-LoRA的中性语料,在纯语音交互或冷启动场景下可能受限;2)个性化聚合的计算开销随客户端数量增长,论文未讨论其可扩展性;3)未在真实的、资源异构的边缘设备集群上评估部署性能。 🏗️ 模型架构 FED-PISA是一个基于联邦学习的语音克隆框架,其整体架构分为客户端和服务器两部分,核心思想是身份-风格解耦。 ...

2026-04-29

Feedback-Driven Retrieval-Augmented Audio Generation with Large Audio Language Models

📄 Feedback-Driven Retrieval-Augmented Audio Generation with Large Audio Language Models #音频生成 #检索增强 #大型音频模型 #扩散模型 ✅ 6.5/10 | 前25% | #音频生成 | #检索增强 | #大型音频模型 #扩散模型 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Junqi Zhao(University of Surrey, CVSSP;Tencent AI Lab, Beijing) 通讯作者:Wenwu Wang(University of Surrey, CVSSP) 作者列表: Junqi Zhao(University of Surrey, CVSSP;Tencent AI Lab, Beijing) Chenxing Li(Tencent AI Lab, Beijing) Jinzheng Zhao(University of Surrey, CVSSP;Tencent AI Lab, Beijing) Rilin Chen(Tencent AI Lab, Beijing) Dong Yu(Tencent AI Lab, Seattle) Mark D. Plumbley(University of Surrey, CVSSP) Wenwu Wang(University of Surrey, CVSSP) (通讯作者) 💡 毒舌点评 亮点在于其“反馈驱动”的框架设计很巧妙,让一个大型音频模型(LALM)去检查另一个生成模型(TTA)的作业,找出了“漏写的声音”,然后去资料库(检索数据库)里找参考答案补上,实现了一种通用且低成本的性能增强。短板是这套流程的“下限”严重依赖那个外部资料库(音频数据库)的全面性和质量,论文中并未充分探讨当数据库里没有合适参考或LALM“找错题”时的容错机制,且评估指标虽然全面,但未能揭示在极端复杂音频场景下的具体失效模式。 ...

2026-04-29

Few-Shot Recognition of Audio Deepfake Generators using Graph-Based Prototype Adaptation

📄 Few-Shot Recognition of Audio Deepfake Generators using Graph-Based Prototype Adaptation #音频深度伪造检测 #少样本学习 #图神经网络 #音频取证 ✅ 7.5/10 | 前25% | #音频深度伪造检测 | #图神经网络 | #少样本学习 #音频取证 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yupeng Tan (广西大学计算机、电子信息学院,广西人工智能学院) 通讯作者:Wei Xie (广西大学计算机、电子信息学院,广西人工智能学院) 作者列表:Yupeng Tan (广西大学计算机、电子信息学院,广西人工智能学院),Wei Xie (广西大学计算机、电子信息学院,广西人工智能学院) 💡 毒舌点评 本文巧妙地将图神经网络与转导学习范式结合,用于解决少样本音频深度伪造生成器识别中因数据稀缺导致的原型估计偏差问题,技术路线完整且实验结果显著优于基线。然而,其核心思想——利用无标签数据(查询集)的结构信息来优化有标签数据的原型表示——在少样本学习领域并非首创(如标签传播等),创新深度有限,且论文未提供任何开源代码或模型权重,对后续研究的可复现性构成障碍。 🔗 开源详情 代码:论文中未提及代码仓库链接。 模型权重:未提及公开模型权重。 数据集:使用了公开数据集ASVspoof2019 LA和MLAAD,论文未提及额外数据。 Demo:未提供在线演示。 复现材料:论文提供了一些关键的超参数(如学习率、图top-k值、episode采样数),但缺少训练硬件信息、完整代码配置、权重文件以及Focal Loss和对比损失中的具体超参数(如γ, m)。 依赖的开源项目/模型: CLAP 音频编码器(论文引用[17]) 图卷积网络基础架构(论文引用[18]) Focal Loss(论文引用[19]) 对比学习框架(论文引用[20]) 消融实验中使用的RawNet3(论文引用[29]) 总体评价:论文中未提及完整的开源计划。 📌 核心摘要 问题:在音频取证中,识别深伪造音频的具体生成器类型至关重要,但新兴生成器的有标签样本极少,传统少样本方法因数据稀疏导致原型估计偏差大、特征区分度低。 方法:提出基于图的原型适应框架。在每个少样本任务中,将支持集和查询集样本构建成一个联合图(基于样本间距离的稀疏连接),通过图适应模块进行信息传播和特征精炼,再估计更可靠的原型进行分类。 创新:1)采用转导学习范式,联合利用有标签和支持样本构建任务特定图;2)设计图适应模块,通过图卷积网络精炼特征并校准原型,缓解原型偏差;3)在元测试阶段引入对比损失进行自适应。 实验:在ASVspoof2019 LA和MLAAD数据集上的5-way设置中,GPA方法在所有shot数下均取得最优准确率,例如在ASV2019LA上5-shot相比最强基线提升3.17%,10-shot提升6.12%,20-shot提升8.28%。消融实验验证了各组件的必要性。 意义:为应对新出现的音频深伪造威胁提供了一种有效的少样本识别方案,增强了音频取证系统对未知生成器的适应能力。 局限性:方法依赖预训练的CLAP编码器和特定的图构建策略,计算复杂度随样本数增加;实验仅在两个数据集上进行,对更多样化生成器和真实场景的泛化能力有待验证。 🏗️ 模型架构 模型架构图如图2所示。 ...

2026-04-29

FIDIC:Fine-Grained Conversational Emotion Recognition via Individual Differences in Inertia and Contagion

📄 FIDIC:Fine-Grained Conversational Emotion Recognition via Individual Differences in Inertia and Contagion #语音情感识别 #对话建模 #心理学启发 #记忆网络 ✅ 7.5/10 | 前25% | #语音情感识别 | #对话建模 | #心理学启发 #记忆网络 学术质量 7.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 中 👥 作者与机构 第一作者:Jianing Liu(东华大学信息与智能科学学院) 通讯作者:Zhaohui Zhang(东华大学信息与智能科学学院) 作者列表:Jianing Liu(东华大学信息与智能科学学院)、Zhaohui Zhang(东华大学信息与智能科学学院)、Kejian Yu(东华大学信息与智能科学学院) 💡 毒舌点评 亮点:论文动机扎实,受心理学理论启发,将“情感惯性”与“情感传染”这两个核心机制在模型架构上进行了显式的解耦与建模,这比单纯堆叠上下文模块的“黑盒”思路更具解释性和理论深度。短板���所有实验仅在单一的IEMOCAP数据集上进行,缺乏对更大规模、更多语种或跨场景数据集的验证,其“泛化能力”和“普遍性”要打个问号;此外,模型涉及多个门控和记忆模块,其计算开销和实际部署的可行性未做任何讨论。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:使用了公开的IEMOCAP数据集,但未说明数据获取方式。 Demo:未提及。 复现材料:提供了部分训练细节(如优化器、学习率、warmup、epoch数、数据预处理),但缺少模型尺寸、隐藏层维度、具体实现框架等信息,不足以完全复现。 论文中引用的开源项目:引用了预训练模型Wav2Vec。 📌 核心摘要 本文针对对话情感识别(ERC)任务中现有方法忽略个体差异、模型可解释性差的问题,提出了一种基于情感惯性(个体情绪状态的自我延续性)和情感传染(跨说话人的情绪影响)的细粒度建模框架FIDIC。该方法的核心是通过对话时间交互单元(CTIU) 显式分离并建模这两个心理机制,并利用历史状态记忆空间(HSMS) 和情感记忆巩固模块(EMCM) 来维护和更新说话人特有的情绪特征表示。与将上下文信息隐式融合在单一表示中的已有方法不同,FIDIC将不同影响来源进行结构化分解,实现了更细粒度、可解释的建模。在IEMOCAP数据集上的实验表明,FIDIC在微调后的Micro-F1指标达到64.58%,显著优于最佳基线(53.0%),消融研究验证了每个关键组件的有效性。该工作为对话情感识别提供了更符合理论直觉的建模范式,但其在多样化工况下的有效性有待进一步验证。 🏗️ 模型架构 FIDIC模型是一个由六个功能模块协作构成的序列处理框架,旨在对对话中的语音情感进行细粒度、个性化的识别。其整体架构(对应论文图2,但无可用图片URL)的数据流如下: 输入与编码:原始语音首先通过预训练的Wav2Vec模型编码为上下文感知的声学嵌入,再经过两层Transformer增强长程依赖,并使用SpecAugment增强鲁棒性,得到当前话语特征Xcur。 历史状态记忆空间 (HSMS):为每个说话人维护一个独立的记忆库,包含三个部分:历史记录(最近n=20条话语的滑动窗口Hself)、特质向量(可更新的说话人特定情绪模式Xold)、时间轮次索引(提供时间上下文)。 对话时间交互单元 (CTIU):核心建模单元。它接收当前特征Xcur、说话人自身历史Hself和其他说话人历史Hother,分别计算: 情感惯性 (EI):通过Transformer编码器聚合自身历史Hself,得到自回归连续性表征cinertia。 情感传染 (EC):通过多头注意力机制计算当前话语Xcur与对方历史Hother之间的依赖关系,得到跨说话人影响表征ccontagion。 整合模块:将cinertia和ccontagion通过前馈网络结合,形成当前轮次的说话人特异性情绪表征Xtemp。 情感记忆巩固模块 (EMCM):用于融合短期动态与长期特征。它利用HSMS中的时间信息t(包含归一化轮次索引和是否与同一对话者交互的标志)生成一个时间感知的门控值ωtemp。该门控动态地将CTIU输出的Xtemp与HSMS中的历史特质向量Xold融合,得到更新后的说话人特质向量Xtrait。 情感整合模块 (AIM):将四个来源的特征——当前话语特征Xcur、自身历史Hself、对方历史Hother和更新后的说话人特质Xtrait——进行拼接,并通过一个可学习的门控机制为每个来源分配自适应权重,最后融合成最终表征Xout。 分类器:对Xout进行前馈变换和归一化,最后通过softmax输出情感类别概率。 设计动机:该架构的核心思想是结构化解耦。传统RNN/LSTM或图模型将自我延续和外部影响混在一个隐状态或图节点中。FIDIC则设计专门的路径(EI路径和EC路径)来分别处理它们,并引入说话人专属的长期记忆库(HSMS/EMCM),使得模型能够区分并学习不同个体在情绪惯性和易感性上的差异。 ...

2026-04-29

Fine-Grained Frame Modeling in Multi-Head Self-Attention for Speech Deepfake Detection

📄 Fine-Grained Frame Modeling in Multi-Head Self-Attention for Speech Deepfake Detection #语音伪造检测 #自监督学习 #模型评估 #Conformer 🔥 8.0/10 | 前25% | #语音伪造检测 | #自监督学习 | #模型评估 #Conformer 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Phuong Tuan Dat (河内科技大学信息与通信技术学院) 通讯作者:Nguyen Thi Thu Trang (河内科技大学信息与通信技术学院) 作者列表:Phuong Tuan Dat (河内科技大学信息与通信技术学院), Duc-Tuan Truong (南洋理工大学计算与数据科学学院), Long-Vu Hoang (河内科技大学信息与通信技术学院), Nguyen Thi Thu Trang (河内科技大学信息与通信技术学院) 💡 毒舌点评 亮点:论文将细粒度视觉分类的“投票选择”思想巧妙移植到语音领域,通过显式建模注意力头的“专长”并选择性聚合关键帧,有效解决了标准MHSA可能忽略局部伪造伪影的问题,方法新颖且有效。短板:高斯核增强的卷积核是固定的([1, 2, 3, 4, 3, 2, 1]),缺乏理论依据或可学习性分析;且所选关键帧数量v需人工调优,在不同音频长度或任务下可能不具备普适性。 ...

2026-04-29

Fine-Tuning Bigvgan-V2 for Robust Musical Tuning Preservation

📄 Fine-Tuning Bigvgan-V2 for Robust Musical Tuning Preservation #音乐生成 #领域适应 #数据增强 #声码器 #鲁棒性 ✅ 7.5/10 | 前25% | #音乐生成 | #领域适应 | #数据增强 #声码器 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文作者列表按字母顺序排列,未明确指出第一作者) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Hans-Ulrich Berendes(国际音频实验室埃尔兰根)、Ben Maman(国际音频实验室埃尔兰根)、Meinard Müller(国际音频实验室埃尔兰根) 💡 毒舌点评 亮点:论文精准地抓住了神经声码器在音乐处理中的一个“阿喀琉斯之踵”——调音偏差,并用一套非常工整的实验设计(构建调音均匀分布测试集、对比不同调音分布训练数据、结合客观指标与主观听测)给出了令人信服的解决方案,证明了即使低分辨率模型也能通过针对性适应达到高分辨率模型的性能。短板:其本质是对现有模型(BigVGAN-V2)的微调应用,核心方法(领域适应、数据增强)并非原创;此外,论文未开源代码和模型,复现依赖项目主页上的有限资源,对推动该方向的快速跟进略有阻碍。 🔗 开源详情 代码:论文中未提及代码链接。项目主页(https://www.audiolabs-erlangen.de/resources/MIR/2026-ICASSP-VocoderFineTuning)提供了一些音频示例,但未说明是否包含微调代码。 模型权重:未提及。微调后的模型权重未公开。 数据集:未公开。使用的内部古典音乐数据集未提供。 Demo:项目主页提供了听测示例音频和更多示例,可视为一种有限形式的Demo。 复现材料:论文提供了微调的基本设置(数据集构建方法、训练步数、基线模型信息),但缺少关键的训练超参数(学习率、优化器等)、硬件配置和完整的数据处理/训练脚本。复现需要依赖BigVGAN-V2的官方代码库。 论文中引用的开源项目: BigVGAN-V2:作为基础和对比模型。 Rubber Band库:用于音高偏移数据增强。 librosa 和 libfmp:用于调音估计。 开源计划:论文中未提及明确的开源计划。 📌 核心摘要 本文针对神经声码器(以BigVGAN-V2为例)在处理非标准调音音频时产生的音高偏移(调音偏差)问题,提出了通过微调来缓解该问题的解决方案。方法核心是构建包含不同调音分布的训练数据集(自然调音分布、均匀调音分布、通过音高偏移增强的均匀调音分布),并在这些数据集上对BigVGAN-V2的80频段版本进行微调。与现有工作相比,新在首次系统研究了如何通过数据策略而非增加模型复杂度(如使用更高频段)来解决调音偏差问题,并证明了数据增强方法的有效性。主要实验结果表明,使用均匀分布数据(特别是通过音高偏移增强的数据)微调后,80频段模型的调音保持精度(平均偏差<3 cents)达到了未微调的128频段模型的水平,且主观听测显示微调模型在非标准调音(尤其是钢琴)下更受偏好。该工作的实际意义在于提供了一种计算高效且鲁棒的方案,使轻量级声码器能可靠地应用于多样化调音条件下的音乐合成。主要局限性在于该解决方案针对BigVGAN-V2模型,其泛化性到其他声码器架构有待验证;且研究局限于西方音乐系统,未涉及非西方调音体系。 🏗️ 模型架构 论文主要研究对象为BigVGAN-V2声码器,并未提出新的模型架构,而是对其进行微调。 ...

2026-04-29