Do LLM Decoders Listen Fairly? Benchmarking How Language Model Priors Shape Bias in Speech Recognition

📄 Do LLM Decoders Listen Fairly? Benchmarking How Language Model Priors Shape Bias in Speech Recognition #语音识别 #语音大模型 #鲁棒性 #基准测试 ✅ 7.5/10 | 前25% | #语音识别 | #语音大模型 | #鲁棒性 #基准测试 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Srishti Ginjala(The Ohio State University) 通讯作者:未说明 作者列表:Srishti Ginjala(The Ohio State University, Columbus, OH, USA)、Eric Fosler-Lussier(The Ohio State University, Columbus, OH, USA)、Christopher W. Myers(Air Force Research Laboratory, USA)、Srinivasan Parthasarathy(The Ohio State University, Columbus, OH, USA) 💡 毒舌点评 这篇论文的亮点在于其极其系统和扎实的实验设计,通过控制变量(三代架构、五个人口统计轴、十二种退化条件)揭示了LLM解码器对ASR公平性影响的复杂图景,尤其是“严重退化压缩公平差距”和“静音注入放大Whisper口音偏见”等反直觉发现极具启发性。但短板在于,它本质上是一个大规模基准测试和现象分析,而非提出一种解决公平性问题的新方法,其结论的普适性受限于仅评估了英语语音和特定的合成退化条件。 ...

2026-04-24

Evaluation of Automatic Speech Recognition Using Generative Large Language Models

📄 Evaluation of Automatic Speech Recognition Using Generative Large Language Models #语音识别 #大语言模型 #模型评估 #基准测试 ✅ 7.5/10 | 前25% | #语音识别 | #大语言模型 | #模型评估 #基准测试 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:未说明(论文摘要未明确标注) 通讯作者:未说明(论文摘要未明确标注) 作者列表:Thibault Bañeras-Roux(未说明)、Shashi Kumar(未说明)、Driss Khalil(未说明)、Sergio Burdisso(未说明)、Petr Motlicek(未说明)、Shiran Liu(未说明)、Mickael Rouvier(未说明)、Jane Wottawa(未说明)、Richard Dufour(未说明) 💡 毒舌点评 亮点:论文系统性地提出了三种利用LLM进行ASR评估的新范式,并在HATS数据集上用令人信服的数据(92-94% vs 63%)证明了其在模拟人类判断上远超传统WER,为ASR评估开辟了更语义化的新路径。短板:作为一篇方法论论文,它却对自己所使用的核心工具——“生成式大语言模型”本身的关键信息(如具体是哪个模型、参数量、是否微调)讳莫如深,这严重削弱了其结论的可复现性和方法的普适性指导价值。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:实验使用了HATS数据集,但论文未说明该数据集是否公开及获取方式。 Demo:未提及。 复现材料:未提供训练细节、配置、检查点或附录说明。 论文中引用的开源项目:未说明。 📌 核心摘要 要解决什么问题:自动语音识别(ASR)的传统评估指标词错误率(WER)只关注字面匹配,对语义不敏感,无法准确反映人类对转录质量的感知。 方法核心是什么:系统性地探索并评估了使用decoder-based生成式大语言模型(LLM)进行ASR评估的三种方法:(1)在两个候选转录中选择更优的一个;(2)使用LLM生成的嵌入向量计算语义距离;(3)对ASR错误进行定性分类。 与已有方法相比新在哪里:首次将decoder-based LLM(而非仅encoder-based模型)引入ASR评估任务,并对比了其与传统WER及语义嵌入指标的性能。同时,提出了利用LLM进行可解释错误分类的评估新维度。 主要实验结果如何:在HATS数据集上,最佳LLM在假设选择任务中与人类标注者的一致率达到92-94%,而WER仅为63%,也优于其他语义指标。LLM生成的嵌入在语义距离计算上表现与encoder模型相当。论文还展示了LLM进行错误分类的示例(见图1、图2)。 假设选择任务性能对比(图2): 图2展示了不同评估方法在假设选择任务上与人类判断的一致性。LLM方法(如GPT-4)的性能(92-94%)显著高于WER(63%)和其他语义指标。 实际意义是什么:为ASR评估提供了一种更符合人类感知、更具语义理解能力且可解释的新范式,有望推动ASR系统向更注重语义准确性的方向优化。 主要局限性是什么:论文未详细说明所使用的具体LLM模型、其参数规模以及是否经过微调,这限制了方法的可复现性。实验仅在单一数据集(HATS)上进行,其结论在其他语言、领域和噪声条件下的泛化能力有待验证。开源信息的缺失是最大的实践障碍。 🏗️ 模型架构 本文并非提出一个新的端到端模型,而是将现有的decoder-based大语言模型作为评估工具,应用于三个不同的ASR评估任务。其整体“架构”可理解为三个独立的评估流程: ...

2026-04-24

Full-Duplex Interaction in Spoken Dialogue Systems: A Comprehensive Study from the ICASSP 2026 HumDial Challenge

📄 Full-Duplex Interaction in Spoken Dialogue Systems: A Comprehensive Study from the ICASSP 2026 HumDial Challenge #语音对话系统 #基准测试 #数据集 #实时处理 ✅ 6.5/10 | 前25% | #语音对话系统 | #基准测试 | #数据集 #实时处理 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Chengyou Wang(西北工业大学计算机学院,音频、语音与语言处理组 (ASLP@NPU)) 通讯作者:Lei Xie(西北工业大学计算机学院,音频、语音与语言处理组 (ASLP@NPU)) 作者列表:Chengyou Wang(西北工业大学ASLP@NPU)、Hongfei Yue(西北工业大学ASLP@NPU)、Guojian Li(南京大学)、Zhixian Zhao(未说明)、Shuiyuan Wang(未说明)、Shuai Wang(未说明)、Xin Xu(未说明)、Hui Bu(AISHELL)、Lei Xie(西北工业大学ASLP@NPU) 💡 毒舌点评 亮点:该论文的核心价值在于“修路”而非“造车”——它首次系统性地为“全双工语音对话”这一前沿但混乱的领域提供了标准化的评估基准(HumDial-FDBench)和高质量的双通道真人录音数据集,填补了关键空白,为后续研究提供了可比较的标尺。短板:论文本身更像一份详尽的挑战赛技术报告,而非提出一个具有突破性性能的新模型或算法;其评估框架依赖外部ASR和LLM进行行为分类,可能引入额外误差和不可控变量。 🔗 开源详情 代码:论文中未提及评估框架或分析代码的链接。仅提供了数据集的GitHub链接:https://github.com/ASLP-lab/HumDial-FDBench 模型权重:未提及。论文评估的是其他团队或公司的模型。 数据集:公开。通过上述GitHub链接获取。 Demo:未提及。 复现材料:论文详细描述了数据集构建流程、评估指标计算方法(包括公式)和评分规则,提供了复现评估所需的大部分信息。但缺少ASR和LLM的具体配置。 论文中引用的开源项目:Paraformer (ASR), Silero-VAD (VAD), DeepSeek (数据生成与行为分类), Moshi, Freeze-Omni, Osum-EChat (被评估模型), Easy-Turn (基线组件)。 📌 核心摘要 问题:传统语音对话系统基于严格的轮流发言模式,缺乏人类自然对话中同时听与说的全双工交互能力,导致对话不自然、响应不及时。 方法核心:为解决评估难题,论文基于ICASSP 2026 HumDial Challenge,提出了一个名为HumDial-FDBench的综合基准测试,并配套发布了一个高质量的双通道真人录音数据集。 创新点:这是首个专门针对全双工交互(处理打断、重叠语音、拒绝无效输入等)的评估框架和配套数据集。数据集采用“LLM生成脚本+真人录制”的两阶段方法构建,以保证对话的自然性和交互现象的覆盖度。 主要实验结果:论文建立了一个公开排行榜,对比了多种开源(如Freeze-Omni, Moshi)和闭源(如Gemini-2.5)模型。结果显示,现有模型在处理打断和拒绝场景时仍存在显著不足。例如,在最终得分榜上,最佳团队“Cookie asr”得分为76.6,而基线系统仅为56.4。具体结果见下表: 团队 打断得分 (Int.) 拒绝得分 (Rej.) 平均延迟 (s) 延迟得分 (D-Sco.) 最终得分 排名 Cookie asr 79.3 72.2 1.260 79.9 76.6 1 Badcat 89.7 57.8 1.632 72.6 73.5 2 SenseDialog 76.4 60.9 1.237 80.5 71.0 3 Gemini-2.5 79.8 36.5 1.301 79.0 62.3 – Baseline 75.9 35.2 2.531 60.0 56.4 6 Freeze-Omni 29.6 50.2 2.578 59.5 43.8 – Moshi 35.4 22.8 2.876 56.3 34.5 – 实际意义:为全双工语音对话系统的研究和开发提供了急需的、标准化的评估工具和高质量数据,有助于公平比较不同方法,推动该领域向更自然、响应更及时的方向发展。 主要局限性:评估框架本身依赖外部的ASR和LLM进行行为分类,其准确性可能影响最终评分。论文作为挑战赛总结,未提出解决全双工交互难题的根本性新模型。 🏗️ 模型架构 论文本身并未提出一个新的对话模型架构,而是提出了一个评估框架(HumDial-FDBench)和数据集。其核心是定义如何评估一个全双工对话系统。 ...

2026-04-24

Hierarchical Policy Optimization for Simultaneous Translation of Unbounded Speech

📄 Hierarchical Policy Optimization for Simultaneous Translation of Unbounded Speech #语音翻译 #强化学习 #大语言模型 #多语言 #流式处理 ✅ 7.5/10 | 前25% | #语音翻译 | #强化学习 | #大语言模型 #多语言 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表:Siqi Ouyang(未说明)、Shuoyang Ding(未说明)、Oleksii Hrinchuk(未说明)、Vitaly Lavrukhin(未说明)、Brian Yan(未说明)、Boris Ginsburg��未说明)、Lei Li(未说明) 💡 毒舌点评 这篇论文精准地抓住了LLM应用于同声传译时“数据质量差”和“计算开销大”这两个落地痛点,并用一套设计精巧的后训练策略(HPO)给出了有效的解决方案,实验结果也足够亮眼。不过,其核心创新更多是针对特定问题的优化框架组合,而非提出一种全新的模型架构或学习范式,对“如何生成高质量合成数据”这一上游问题本身并未深入探索。 🔗 开源详情 代码:提供了代码仓库链接:https://github.com/owaski/HPO。 模型权重:论文中未提及公开的模型权重。 数据集:论文中未提及公开的数据集。 Demo:论文中未提及在线演示。 复现材料:论文提供了代码,可能包含训练脚本和配置,但具体的训练细节(如超参数)需查阅代码仓库或论文全文。 论文中引用的开源项目:未在摘要中明确列出。 📌 核心摘要 要解决什么问题:大语言模型(LLM)能显著提升同声传译(SST)质量,但计算开销巨大。现有通过将SST重构为多轮对话来复用KV缓存的方法,严重依赖高质量的监督微调(SFT)数据,而这类数据稀缺且合成方法难以保证质量。 方法核心是什么:提出分层策略优化(HPO)框架,用于后训练在不完美SFT数据上训练的模型。核心是引入一个分层奖励函数,同时优化翻译质量(使用COMET等指标)和延迟(如等待时间)这两个相互冲突的目标。 与已有方法相比新在哪里:不同于直接使用SFT或简单的强化学习微调,HPO通过分层奖励设计,更精细地平衡了质量与延迟。它不依赖完美的初始对话数据,而是通过后训练对现有模型进行优化,是一种更实用、鲁棒的训练范式。 主要实验结果如何:在英译中、德、日的任务上,HPO方法在1.5秒的平均延迟下,相比强基线取得了超过+7 COMET分数和+1.25 MetricX分数的显著提升。消融研究验证了不同质量奖励、分层奖励公式和分段策略的有效性。 实际意义是什么:该方法降低了部署高质量LLM-SST系统的门槛和成本,使得在资源受限或需要实时响应的场景下应用先进翻译模型成为可能,推动了SST技术的实用化。 主要局限性是什么:论文中未明确讨论。可能包括:对基础模型质量有一定依赖;分层奖励的设计需要针对具体任务进行调优;在极低延迟或极端语音条件下的表现有待进一步验证。 🏗️ 模型架构 论文的核心是训练框架而非全新的模型架构,它基于一个已有的、用于SST的LLM架构进行后训练优化。 ...

2026-04-24

Low-Rank Adaptation Redux for Large Models

📄 Low-Rank Adaptation Redux for Large Models #大语言模型 #迁移学习 #信号处理 #参数高效微调 📝 5.5/10 | 前50% | #大语言模型 | #迁移学习 | #信号处理 #参数高效微调 | arxiv 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(摘要仅列出Bingcong Li, Yilang Zhang, Georgios B. Giannakis,无法判断谁为第一作者) 通讯作者:未说明 作者列表:Bingcong Li(未说明)、Yilang Zhang(未说明)、Georgios B. Giannakis(未说明) 💡 毒舌点评 这篇论文试图用经典的信号处理(SVD、逆问题)框架来“统一”和“解释”LoRA及其变体,立意新颖,为这个野蛮生长的领域提供了一套潜在的理论词汇表。然而,它本质上是一篇综述或视角文章,既没有提出新的LoRA变体,也没有提供任何实验验证或对比,其“深度分析”更多停留在理论梳理和分类上,对于急需实操指导的读者来说,可能感觉“干货”不足。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:未提及。 Demo:未提及。 复现材料:未提及。 论文中引用的开源项目:摘要中未提及任何具体的开源项目或工具。 总结:论文中未提及开源计划。 📌 核心摘要 要解决什么问题:LoRA已成为大模型参数高效微调(PEFT)的事实标准,但其变体众多,缺乏一个统一的理论框架来指导实际的方法选择,即不清楚在何种架构设计、优化技术或部署约束下应选择哪种变体。 方法核心是什么:论文从信号处理(SP)的视角重新审视LoRA,将现代适配器设计与经典的低秩建模、逆问题工具联系起来。它不提供全面的枚举和实证比较,而是侧重于分析这些方法背后的技术机制。 与已有方法相比新在哪里:本文的新颖之处在于其分析框架。它将现有的LoRA改进归纳到三个互补的轴线上:架构设计(如基于SVD的分解、秩增强、跨层张量化)、高效优化(如初始化、交替求解器、规范不变优化)和相关应用(覆盖模型全生命周期)。它强调了SP原则如何为设计有原则的PEFT方法提供指导。 主要实验结果如何:论文中未提供任何具体的实验结果、数值对比或消融实验数据。它是一篇理论分析和综述性文章。 实际意义是什么:其意义在于为理解和设计LoRA类方法提供了一个更结构化的理论视角,可能启发未来更具原则性的PEFT方法设计,并促进深度学习与信号处理两个社区的交叉研究。 主要局限性是什么:主要局限是缺乏实证支撑。作为一个“overview”,它没有通过实验验证其分析框架的有效性,也没有给出具体的、可操作的方法选择指南。对于寻求直接技术指导的读者,其价值有限。 🏗️ 模型架构 本文是一篇综述/视角论文,没有提出一个新的具体模型架构。因此,无法描述其模型的整体架构、输入输出流程或组件。论文的核心是构建一个分析框架,将现有的LoRA及其变体(如LoRA, QLoRA, DoRA等)置于信号处理的语境下进行理解和分类。这个框架本身不是一个可执行的模型。 ...

2026-04-24

MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control

📄 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control #语音合成 #流匹配 #零样本 #可控生成 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #零样本 #可控生成 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Jialong Mai(华南理工大学)、Xiaofen Xing(华南理工大学)、Xiangmin Xu(华南理工大学) 💡 毒舌点评 亮点在于它系统性地解决了TTS中“token级时长控制”这个长期被忽略的痛点,并通过精巧的条件注入和高置信度数据监督,实现了从“全局语速”到“单字时长”的可控性飞跃,为有声读物、语音导航等应用提供了新工具。短板是论文在展示“控制力”的同时,未能充分证明其“合成力”——即与当前顶尖的零样本TTS模型(如CosyVoice 2)相比,其默认语音的自然度和表现力是否依然具有竞争力,这使得其实际应用价值打上了一个问号。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开模型权重。 数据集:论文中详细描述了其构建的数据集(CPT语料和SFT高置信度子集),但未提及是否公开或如何获取。 Demo:未提及在线演示。 复现材料:论文提供了较为详细的训练细节(如模型配置、优化器参数、训练步数、硬件信息)和消融实验设置,附录中包含额外分析,这有助于理解方法,但不足以完全复现,因为缺少核心代码和数据。 论文中引用的开源项目:依赖的开源工具/模型包括:F5-TTS(骨干网络)、Stable-ts(用于时序标注)、Montreal Forced Aligner (MFA)(用于高置信度标注)、Vocos(声码器)、Emilia(数据集)、MNV-17 ASR模型(用于转录)。 📌 核心摘要 问题:现代文本到语音(TTS)系统普遍缺乏对单个token(字/音素)级别内容时长和停顿的精确、显式控制能力,现有控制通常仅限于句子级语速或全局风格,无法满足需要精细节奏控制的场景。 方法核心:本文提出了MAGIC-TTS,首个支持显式token级时长和停顿控制的TTS模型。其核心是在一个基于流匹配(Flow Matching)的零样本TTS骨干网络上,通过可学习的残差向量将token级的时长和停顿数值作为显式条件注入文本表示。同时,设计了高置信度时长监督数据构建流程(交叉验证Stable-ts与MFA对齐)和训练机制(零值校正、控制缺失鲁棒性训练)来确保控制的可靠性。 创新点:a) 首次实现显式、可解释的token级内容时长与停顿控制;b) 提出了结合大规模弱监督和高置信度交叉验证的时长数据构建方法;c) 通过零值校正和随机丢弃训练,平衡了可控合成与默认高质量合成。 主要实验结果:在时序控制基准测试中,提供显式控制后,内容时长MAE从36.88ms降至10.56ms,相关性从0.588升至0.918;停顿MAE从18.92ms降至8.32ms。在局部编辑场景测试中,模型能以低偏差(内容17.60ms,停顿23.33ms)将编辑区域向目标值调整。消融实验证明了零值校正和高置信度监督的有效性。 实际意义:使TTS系统能够支持需要精确节奏控制的应用,如导航语音的局部强调、有声读物的节奏引导、无障碍场景下的代码朗读等,提升了语音合成的可编程性和实用性。 主要局限性:a) 未与当前SOTA的零样本TTS模型在合成自然度、说话人相似度等核心指标上进行对比,无法评估其在通用合成质量上的水平;b) 评估主要基于中文数据,缺乏多语言验证;c) 未开源代码和模型,复现门槛高。 🏗️ 模型架构 MAGIC-TTS建立在一个基于条件流匹配(Conditional Flow Matching)的非自回归零样本TTS骨干网络(具体为F5-TTS)之上。其核心创新在于对文本侧条件表示的增强,以注入显式时序控制。 ...

2026-04-24

Materialistic RIR: Material Conditioned Realistic RIR Generation

📄 Materialistic RIR: Material Conditioned Realistic RIR Generation #音频生成 #多模态模型 #Transformer #对比学习 #空间音频 ✅ 7.5/10 | 前25% | #音频生成 | #多模态模型 | #Transformer #对比学习 | arxiv 学术质量 3.8/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 中 👥 作者与机构 第一作者:Mahnoor Fatima Saad (University of Utah) 通讯作者:未说明 作者列表:Mahnoor Fatima Saad (University of Utah)、Sagnik Majumder (UT Austin)、Kristen Grauman (UT Austin)、Ziad Al-Halah (University of Utah) 💡 毒舌点评 这篇论文的亮点在于提出了一个优雅的解耦框架(MatRIR),将空间布局和材料属性对声学的影响分开建模,从而实现了对RIR生成的精细控制,这在概念上和实验上都比之前纠缠在一起的方法更合理。然而,其短板也相当明显:模型严重依赖模拟数据集(Acoustic Wonderland),且对某些材料(如钢)的建模效果不佳,这限制了其在真实世界复杂场景中的泛化能力;此外,论文未提供代码和预训练模型,大大削弱了其可复现性和即时影响力。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:使用Acoustic Wonderland数据集,但论文未提及该数据集是否公开或如何获取(注:根据引用,该数据集由M-CAPA论文提出,可能需要查阅前作)。 Demo:未提及。 复现材料:论文在附录中提供了较详细的模型架构描述(Sec 7.8)和评估设置(Sec 7.9),包括网络层数、维度、部分超参数等。但关键训练细节(如损失权重 λ 值、总训练步数)和硬件信息未说明。 论文中引用的开源项目:明确使用了预训练模型DINOv2 [52] 和 MiDaS [4] 作为特征提取器和深度估计器。 📌 核心摘要 问题:现有的房间脉冲响应(RIR)生成方法通常将场景的空间布局和材料属性纠缠在一个表示中,导致用户无法独立控制材料配置来探索其对声学的影响,限制了生成的灵活性和真实性。 方法核心:提出MatRIR模型,采用显式解耦设计。它包含一个空间模块(仅从RGB图像和深度图预测反映空间布局的初始RIR)和一个材料感知模块(根据用户指定的材料分割掩码,对初始RIR进行调制,生成最终的材料条件RIR)。该设计允许在不改变空间结构的情况下修改材料配置。 创新点:与先前方法(如M-CAPA)相比,核心创新在于显式解耦空间和材料因素的建模过程,而非在联合表示中隐式学习。此外,引入了两个新的评估指标(MatC和MatD)来专门衡量模型对材料声学特性的捕获能力。 主要实验结果:在Acoustic Wonderland数据集上,MatRIR在标准声学指标(如RTE)和材料指标(MatC, MatD)上均显著优于最强基线(M-CAPA)。具体而言,在未见材料配置的测试集上,RTE(混响时间误差)降低了约16.8%,材料分类准确率(MatC)提升了71.2%。人类感知研究显示,60.4%的参与者认为MatRIR生成的音频更真实。 实际意义:该工作为虚拟现实(VR)、增强现实(AR)、机器人和建筑声学设计等领域提供了更真实、可控的声学模拟能力,允许用户探索不同材料对空间听感的影响。 主要局限性:模型在输入视角受限(如靠近墙壁)或场景被严重遮挡时性能下降;对某些材料(如钢)的声学特性建模不准确;评估和训练完全依赖于模拟数据集,真实世界泛化能力有待验证。 🏗️ 模型架构 MatRIR模型采用模块化设计,核心思想是将空间和材料因素对RIR的影响显式分离并顺序建模。 ...

2026-04-24

MER 2026: From Discriminative Emotion Recognition to Generative Emotion Understanding

📄 MER 2026: From Discriminative Emotion Recognition to Generative Emotion Understanding #多模态模型 #语音情感识别 #情感计算 #基准测试 #生理信号 ✅ 6.0/10 | 前50% | #语音情感识别 | #多模态模型 | #情感计算 #基准测试 | arxiv 学术质量 5.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zheng Lian(中国科学院自动化研究所) 通讯作者:未说明 作者列表:Zheng Lian(中国科学院自动化研究所)、Xiaojiang Peng(深圳技术大学)、Kele Xu(国防科技大学)、Ziyu Jia(中国科学院自动化研究所)、Xinyi Che(四川大学)、Zebang Cheng(深圳大学)、Fei Ma(广东省人工智能与数字经济实验室(深圳))、Laizhong Cui(深圳大学)、Yazhou Zhang(天津大学)、Xin Liu(上海交通大学)、Liang Yang(大连理工大学)、Jia Li(合肥工业大学)、Fan Zhang(香港中文大学)、Erik Cambria(南洋理工大学)、Guoying Zhao(奥卢大学)、Björn W. Schuller(慕尼黑工业大学)、Jianhua Tao(清华大学) 💡 毒舌点评 这篇论文的最大亮点是其系统性和前瞻性,它清晰地勾勒出了情感识别领域从“给标签”到“懂描述”再到“知偏好”的演进路线,并通过四个精心设计的赛道(尤其是对话者情感和情感偏好)将这一趋势落地为可评估的挑战。然而,其短板也同样明显:作为一篇挑战赛公告,它本质上是“出题者”而非“解题者”,缺乏原创性的技术贡献和深度的算法分析,更像是一份详尽的“竞赛说明书”和“数据集发布文档”。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开的模型权重。 数据集:论文明确提供了数据集获取网站:https://zeroqiaoba.github.io/MER-Challenge/。MER-Cross、MER-FG、MER-Prefer和MER-PS的数据集均可通过该网站获取。 Demo:未提及在线演示。 复现材料:论文提供了基线模型的名称(如WavLM, RoBERTa, CLIP, AffectGPT, EEGNet, ASAC-Net)和部分结果,但未给出具体的训练细节、超参数配置或预训练检查点。 论文中引用的开源项目:论文引用了多个开源模型和工具,包括TalkNet(用于说话者检测)、WavLM、wav2vec 2.0、HuBERT、RoBERTa、MacBERT、VideoMAE、ResNet、CLIP、Video-LLaVA、Qwen-Audio、Chat-UniVi、LLaMA-VID、SALMONN、AffectGPT、EEGNet、ASAC-Net等。 开源计划:论文中未提及额外的开源计划。 📌 核心摘要 要解决什么问题:本文旨在介绍MER 2026挑战赛,推动情感计算研究从传统的判别式情感识别(预测固定标签)向生成式情感理解(生成细粒度、描述性、符合人类偏好的情感表达)范式转变。 方法核心是什么:核心是通过设计四个新的挑战赛道来定义和评估新范式下的情感理解能力:(1) MER-Cross:从识别说话者自身情感转向识别对话者的情感;(2) MER-FG:从基本情感标签扩展到开放词汇的细粒度情感;(3) MER-Prefer:预测人类对不同情感描述的偏好;(4) MER-PS:基于脑电(EEG)和近红外光谱(fNIRS)生理信号进行连续情感预测。 与已有方法相比新在哪里:与MER 2023-2025相比,新在三个方面:(1) 场景新:首次引入双人对话交互场景(MER-Cross);(2) 任务新:首次引入情感偏好预测任务(MER-Prefer),用于训练奖励模型;(3) 模态新:首次系统性地将多模态情感识别扩展到内部生理信号(MER-PS)。整体上,从“识别”走向了更全面的“理解”。 主要实验结果如何:论文为每个赛道提供了基线实验结果,关键数据如下: MER-Cross:在测试集上,多模态融合(Top-1)的加权F1分数为57.44%,而单模态最优的视觉特征(CLIP-large)为58.88%。值得注意的是,为个体情感训练的模型在对话者情感上性能大幅下降(如声学特征从76.51%降至35.25%)。 MER-FG:在测试集上,零样本基线中最强的SALMONN得分为47.38%,而经过微调的AffectGPT(使用MER-Caption+数据)得分达到60.27%。 MER-Prefer:在测试集上,零样本基线中最强的多模态模型Qwen2.5-Omni的加权F1分数为78.74%,准确率为78.89%。 MER-PS:在测试集上,最强的基线模型ASAC-Net(EEG+fNIRS)的平均MAE(排名分数)为0.2164。 实际意义是什么:为情感计算社区提供了新的、更具挑战性的研究方向和标准化评测平台。特别是对话者情感识别和情感偏好预测,对于提升社交机器人、人机交互系统的共情能力具有直接的应用价值。生理信号赛道则推动了对情感内部机制的客观研究。 主要局限性是什么:作为挑战赛公告论文,其局限性在于:(1) 没有提出新的模型或算法,仅提供基线;(2) 对赛道设计背后的深层动机和潜在挑战的讨论有限;(3) 部分赛道(如MER-Cross)的测试集规模较小(574样本),可能影响结论的普适性。 🏗️ 模型架构 本文作为挑战赛公告,并未提出一个统一的、端到端的模型架构。其核心是定义了四个独立的任务,并为每个任务提供了基线模型。因此,架构描述将围绕这些任务和基线展开。 ...

2026-04-24

Misinformation Span Detection in Videos via Audio Transcripts

📄 Misinformation Span Detection in Videos via Audio Transcripts #音频安全 #预训练 #多语言 #音视频 ✅ 7.5/10 | 前25% | #音频安全 | #预训练 | #多语言 #音视频 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Breno Matos (联邦米纳斯吉拉斯大学,工作完成时) 通讯作者:未说明 作者列表: Breno Matos (联邦米纳斯吉拉斯大学) Rennan C. Lima (未说明具体机构) Savvas Zannettou (未说明具体机构) Fabrício Benevenuto (未说明具体机构) Rodrygo L.T. Santos (未说明具体机构) 💡 毒舌点评 这篇论文的亮点在于敏锐地捕捉到了“视频虚假信息片段检测”这一空白任务,并提供了首个公开、标注的数据集,为后续研究铺平了道路。然而,其短板也十分明显:方法上缺乏实质创新,仅仅是现有语音转录模型(Whisper)和语言模型(BERTimbau/PTT5)的串联使用,更像是一个“数据集构建与初步验证”的工作,而非一个提出突破性算法的论文。 🔗 开源详情 代码:提供代码仓库链接(https://github.com/brenomatos/msd)。 模型权重:提及发布了训练好的模型权重,可通过HuggingFace获取。 数据集:公开发布。BOL4Y和EI22数据集(包括虚假声明、转录文本、标注)在Zenodo仓库(https://zenodo.org/records/19097541)。音频和视频文件托管在HuggingFace(https://huggingface.co/datasets/brenomatos/msd),需申请访问。 Demo:未提及。 复现材料:提供了数据集构建和模型训练的代码。论文附录详细说明了数据集的字段结构。 引用的开源项目: Whisper:用于语音转录。 BERTimbau:用于生成文本嵌入和作为分类器。 PTT5:用于作为分类器。 SentenceTransformers:用于获取嵌入。 Doccano:用于文本标注。 HuggingFace Transformers:用于模型实现。 📌 核心摘要 问题:现有视频虚假信息检测多停留在视频级别的二分类,无法定位视频中具体哪一段内容(即虚假声明)是问题所在,这给事实核查和内容审核带来了困难。 方法核心:提出“虚假信息片段检测”任务。方法流程为:使用Whisper将视频音频转录为文本片段;利用BERTimbau模型将片段和已知的虚假声明转换为向量,通过余弦相似度匹配可能包含虚假信息的片段;最后,使用BERTimbau或PTT5作为分类器,对转录片段进行二分类(是否为虚假信息)。 创新点:首次定义并研究该任务;构建并公开了两个包含时间戳标注的葡萄牙语虚假视频数据集(BOL4Y和EI22);进行了包括时间窗口分析、跨数据集评估在内的系统性基准实验。 主要实验结果:在BOL4Y数据集上,使用BERTimbau分类器在1:75的下采样比例下取得了最佳的Macro F1分数0.68。在“编辑版”数据集(使用记者润色后的声明)上,性能有所提升,最佳F1达到0.81。跨数据集实验(BOL4Y训练,EI22测试)取得了0.71的F1分数,表明模型具有一定的泛化能力。时间分析显示,模型性能在不同月份间存在波动。 实际意义:为自动化辅助事实核查人员定位视频中的虚假内容、为社交平台在虚假声明出现时精准添加警告标签提供了技术可能和数据基础。 主要局限性:依赖于音频转录质量,Whisper的自动分段可能不够精确;数据仅限于葡萄牙语和巴西政治语境,泛化性未知;分类性能(F1=0.68)仍有较大提升空间。 🏗️ 模型架构 本文没有提出新的模型架构,而是构建了一个基于现有预训练模型的处理流水线。整体流程如下: ...

2026-04-24

Phonological Subspace Collapse Is Aetiology-Specific and Cross-Lingually Stable: Evidence from 3,374 Speakers

📄 Phonological Subspace Collapse Is Aetiology-Specific and Cross-Lingually Stable: Evidence from 3,374 Speakers arxiv ← 返回 2026-04-24 论文速递

2026-04-24