MER 2026: From Discriminative Emotion Recognition to Generative Emotion Understanding

📄 MER 2026: From Discriminative Emotion Recognition to Generative Emotion Understanding #多模态模型 #语音情感识别 #情感计算 #基准测试 #生理信号 ✅ 6.0/10 | 前50% | #语音情感识别 | #多模态模型 | #情感计算 #基准测试 | arxiv 学术质量 5.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zheng Lian(中国科学院自动化研究所) 通讯作者:未说明 作者列表:Zheng Lian(中国科学院自动化研究所)、Xiaojiang Peng(深圳技术大学)、Kele Xu(国防科技大学)、Ziyu Jia(中国科学院自动化研究所)、Xinyi Che(四川大学)、Zebang Cheng(深圳大学)、Fei Ma(广东省人工智能与数字经济实验室(深圳))、Laizhong Cui(深圳大学)、Yazhou Zhang(天津大学)、Xin Liu(上海交通大学)、Liang Yang(大连理工大学)、Jia Li(合肥工业大学)、Fan Zhang(香港中文大学)、Erik Cambria(南洋理工大学)、Guoying Zhao(奥卢大学)、Björn W. Schuller(慕尼黑工业大学)、Jianhua Tao(清华大学) 💡 毒舌点评 这篇论文的最大亮点是其系统性和前瞻性,它清晰地勾勒出了情感识别领域从“给标签”到“懂描述”再到“知偏好”的演进路线,并通过四个精心设计的赛道(尤其是对话者情感和情感偏好)将这一趋势落地为可评估的挑战。然而,其短板也同样明显:作为一篇挑战赛公告,它本质上是“出题者”而非“解题者”,缺乏原创性的技术贡献和深度的算法分析,更像是一份详尽的“竞赛说明书”和“数据集发布文档”。 📌 核心摘要 要解决什么问题:本文旨在介绍MER 2026挑战赛,推动情感计算研究从传统的判别式情感识别(预测固定标签)向生成式情感理解(生成细粒度、描述性、符合人类偏好的情感表达)范式转变。 方法核心是什么:核心是通过设计四个新的挑战赛道来定义和评估新范式下的情感理解能力:(1) MER-Cross:从识别说话者自身情感转向识别对话者的情感;(2) MER-FG:从基本情感标签扩展到开放词汇的细粒度情感;(3) MER-Prefer:预测人类对不同情感描述的偏好;(4) MER-PS:基于脑电(EEG)和近红外光谱(fNIRS)生理信号进行连续情感预测。 与已有方法相比新在哪里:与MER 2023-2025相比,新在三个方面:(1) 场景新:首次引入双人对话交互场景(MER-Cross);(2) 任务新:首次引入情感偏好预测任务(MER-Prefer),用于训练奖励模型;(3) 模态新:首次系统性地将多模态情感识别扩展到内部生理信号(MER-PS)。整体上,从“识别”走向了更全面的“理解”。 主要实验结果如何:论文为每个赛道提供了基线实验结果,关键数据如下: MER-Cross:在测试集上,多模态融合(Top-1)的加权F1分数为57.44%,而单模态最优的视觉特征(CLIP-large)为58.88%。值得注意的是,为个体情感训练的模型在对话者情感上性能大幅下降(如声学特征从76.51%降至35.25%)。 MER-FG:在测试集上,零样本基线中最强的SALMONN得分为47.38%,而经过微调的AffectGPT(使用MER-Caption+数据)得分达到60.27%。 MER-Prefer:在测试集上,零样本基线中最强的多模态模型Qwen2.5-Omni的加权F1分数为78.74%,准确率为78.89%。 MER-PS:在测试集上,最强的基线模型ASAC-Net(EEG+fNIRS)的平均MAE(排名分数)为0.2164。 实际意义是什么:为情感计算社区提供了新的、更具挑战性的研究方向和标准化评测平台。特别是对话者情感识别和情感偏好预测,对于提升社交机器人、人机交互系统的共情能力具有直接的应用价值。生理信号赛道则推动了对情感内部机制的客观研究。 主要局限性是什么:作为挑战赛公告论文,其局限性在于:(1) 没有提出新的模型或算法,仅提供基线;(2) 对赛道设计背后的深层动机和潜在挑战的讨论有限;(3) 部分赛道(如MER-Cross)的测试集规模较小(574样本),可能影响结论的普适性。 🏗️ 模型架构 本文作为挑战赛公告,并未提出一个统一的、端到端的模型架构。其核心是定义了四个独立的任务,并为每个任务提供了基线模型。因此,架构描述将围绕这些任务和基线展开。 ...

2026-04-24

Misinformation Span Detection in Videos via Audio Transcripts

📄 Misinformation Span Detection in Videos via Audio Transcripts #音频安全 #预训练 #多语言 #音视频 ✅ 7.5/10 | 前25% | #音频安全 | #预训练 | #多语言 #音视频 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Breno Matos (联邦米纳斯吉拉斯大学,工作完成时) 通讯作者:未说明 作者列表: Breno Matos (联邦米纳斯吉拉斯大学) Rennan C. Lima (未说明具体机构) Savvas Zannettou (未说明具体机构) Fabrício Benevenuto (未说明具体机构) Rodrygo L.T. Santos (未说明具体机构) 💡 毒舌点评 这篇论文的亮点在于敏锐地捕捉到了“视频虚假信息片段检测”这一空白任务,并提供了首个公开、标注的数据集,为后续研究铺平了道路。然而,其短板也十分明显:方法上缺乏实质创新,仅仅是现有语音转录模型(Whisper)和语言模型(BERTimbau/PTT5)的串联使用,更像是一个“数据集构建与初步验证”的工作,而非一个提出突破性算法的论文。 📌 核心摘要 问题:现有视频虚假信息检测多停留在视频级别的二分类,无法定位视频中具体哪一段内容(即虚假声明)是问题所在,这给事实核查和内容审核带来了困难。 方法核心:提出“虚假信息片段检测”任务。方法流程为:使用Whisper将视频音频转录为文本片段;利用BERTimbau模型将片段和已知的虚假声明转换为向量,通过余弦相似度匹配可能包含虚假信息的片段;最后,使用BERTimbau或PTT5作为分类器,对转录片段进行二分类(是否为虚假信息)。 创新点:首次定义并研究该任务;构建并公开了两个包含时间戳标注的葡萄牙语虚假视频数据集(BOL4Y和EI22);进行了包括时间窗口分析、跨数据集评估在内的系统性基准实验。 主要实验结果:在BOL4Y数据集上,使用BERTimbau分类器在1:75的下采样比例下取得了最佳的Macro F1分数0.68。在“编辑版”数据集(使用记者润色后的声明)上,性能有所提升,最佳F1达到0.81。跨数据集实验(BOL4Y训练,EI22测试)取得了0.71的F1分数,表明模型具有一定的泛化能力。时间分析显示,模型性能在不同月份间存在波动。 实际意义:为自动化辅助事实核查人员定位视频中的虚假内容、为社交平台在虚假声明出现时精准添加警告标签提供了技术可能和数据基础。 主要局限性:依赖于音频转录质量,Whisper的自动分段可能不够精确;数据仅限于葡萄牙语和巴西政治语境,泛化性未知;分类性能(F1=0.68)仍有较大提升空间。 🏗️ 模型架构 本文没有提出新的模型架构,而是构建了一个基于现有预训练模型的处理流水线。整体流程如下: ...

2026-04-24

Phonological Subspace Collapse Is Aetiology-Specific and Cross-Lingually Stable: Evidence from 3,374 Speakers

📄 Phonological Subspace Collapse Is Aetiology-Specific and Cross-Lingually Stable: Evidence from 3,374 Speakers arxiv ← 返回 2026-04-24 论文速递

2026-04-24

Preferences of a Voice-First Nation: Large-Scale Pairwise Evaluation and Preference Analysis for TTS in Indian Languages

📄 Preferences of a Voice-First Nation: Large-Scale Pairwise Evaluation and Preference Analysis for TTS in Indian Languages #语音合成 #模型评估 #多语言 #基准测试 ✅ 7.5/10 | 前25% | #语音合成 | #模型评估 | #多语言 #基准测试 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Srija Anand(Indian Institute of Technology, Madras; AI4Bharat) 通讯作者:未说明 作者列表:Srija Anand(Indian Institute of Technology, Madras; AI4Bharat)、Ashwin Sankar(AI4Bharat)、Ishvinder Sethi(AI4Bharat)、Aaditya Pareek(AI4Bharat)、Kartik Rajput(AI4Bharat)、Gaurav Yadav(AI4Bharat)、Nikhil Narasimhan(AI4Bharat)、Adish Pandya(AI4Bharat)、Deepon Halder(AI4Bharat)、Mohammed Safi Ur Rahman Khan(AI4Bharat)、Praveen S(AI4Bharat)、Shobhit Banga(Josh Talks)、Mitesh M Khapra(Indian Institute of Technology, Madras; AI4Bharat) 💡 毒舌点评 这篇论文在印度语言TTS评估上做到了“大力出奇迹”,用海量数据和严谨框架构建了一个可靠的排行榜,其多维度感知分析(尤其是SHAP解释)是亮点。但短板在于,作为一篇评估论文,它未能深入探讨评估者间一致性(inter-rater agreement)这一核心可靠性指标,使得“1900+评估者”的数据权威性打了折扣。 ...

2026-04-24

Prosody as Supervision: Bridging the Non-Verbal--Verbal for Multilingual Speech Emotion Recognition

📄 Prosody as Supervision: Bridging the Non-Verbal–Verbal for Multilingual Speech Emotion Recognition #语音情感识别 #领域适应 #双曲神经网络 #自监督学习 #多语言 🔥 8.0/10 | 前25% | #语音情感识别 | #领域适应 | #双曲神经网络 #自监督学习 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Girish (UPES, India), Mohd Mujtaba Akhtar (Veer Bahadur Singh Purvanchal University, India) (论文注明两人贡献相等) 通讯作者:Muskaan Singh (Ulster University, UK) 作者列表:Girish (UPES, India)、Mohd Mujtaba Akhtar (Veer Bahadur Singh Purvanchal University, India)、Muskaan Singh (Ulster University, UK) 💡 毒舌点评 亮点:论文最巧妙之处在于将低资源多语言SER问题重新定义为“非语音到语音”的无监督域适应,这个视角跳出了传统“语音到语音”迁移的框架,为利用丰富但未被充分利用的非语音情感数据开辟了新路径。短板:整个框架(双曲几何、VQ、最优传输)的复杂性较高,虽然消融实验证明了各模块必要性,但这种“组合式创新”是否带来了根本性的理论突破,或者只是工程上的有效堆砌,值得进一步思考。 ...

2026-04-24

Sema: Semantic Transport for Real-Time Multimodal Agents

📄 Sema: Semantic Transport for Real-Time Multimodal Agents #实时处理 #信号处理 #多模态模型 #跨模态 ✅ 6.5/10 | 前50% | #实时处理 | #信号处理 | #多模态模型 #跨模态 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Jiaying Meng (Unaffiliated) 通讯作者:未说明 作者列表:Jiaying Meng (Unaffiliated), Bojie Li (Pine AI) 💡 毒舌点评 这篇论文提出了一个极具前瞻性的“语义传输”范式,敏锐地抓住了为AI模型而非人类优化媒体传输这一核心矛盾,理论框架清晰。然而,其最大的短板在于所有结论均基于仿真,缺乏一个端到端的真实系统实现和验证,使得“颠覆性”的结论在工程落地层面显得有些悬空。 📌 核心摘要 要解决的问题:当前多模态AI智能体(如语音助手、电脑操控智能体)使用为人类实时通信(RTC)设计的网络协议栈传输原始音频和屏幕截图,这导致了巨大的带宽和延迟开销,因为这些协议优化的是人类感知的保真度和播放流畅性,而AI模型处理的是离散的语义事件。 方法核心:提出Sema系统,其核心思想是“传输意义,而非信号”。在上行链路(客户端到服务器),用离散的语义令牌(如语音令牌、混合屏幕表示)替代原始媒体;在下行链路(服务器到客户端),将语音合成器(vocoder)移至客户端,并采用突发式令牌交付,消除抖动缓冲。 与已有方法相比新在哪里:与传统RTC(如WebRTC、Opus/WebP编码)相比,Sema实现了根本性的范式转变:从优化信号级失真(Shannon-Weaver Level A)转向优化任务级语义保真(Level B)。具体创新包括:(1) 在客户端进行语义令牌化而非在服务器端编码;(2) 设计了结合无损结构化文本(无障碍树/OCR)和紧凑视觉令牌的混合屏幕表示;(3) 利用AI模型的“事件时间容忍度”实现突发交付。 主要实验结果:在广域网仿真条件下,Sema相比基线(Opus 32kbps音频,WebP质量80截图)实现了音频上行带宽减少64倍(从12KB/3秒降至188B),屏幕上行带宽减少130-210倍(从700KB降至3-5KB)。同时,下游任务准确率(语音识别WER、屏幕导航和文本任务成功率)与原始基线相比差距在0.7个百分点以内。关键结果见下表和图: 表1:每轮上行载荷中位数对比 方法 音频 (3秒轮次) 截图 压缩比 (相对于Raw+Compress) Raw (PCM / PNG) 96 KB 950 KB - Raw+Compress (Opus / WebP) 12 KB 700 KB 1× (参考) Sema-Static (仅令牌) 188 B 832 B 64× / 841× Sema-Hybrid 188 B 3–5 KB 64× / 130–210× 图1显示了Sema方法(特别是Sema-Hybrid)相比原始和压缩方法,在每轮传输数据量上的数量级优势。 ...

2026-04-24

Time vs. Layer: Locating Predictive Cues for Dysarthric Speech Descriptors in wav2vec 2.0

📄 Time vs. Layer: Locating Predictive Cues for Dysarthric Speech Descriptors in wav2vec 2.0 #语音生物标志物 #自监督学习 #数据集 #模型评估 #语音增强 ✅ 7.0/10 | 前25% | #语音生物标志物 | #自监督学习 | #数据集 #模型评估 | arxiv 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表:Natalie Engert(未说明)、Dominik Wagner(未说明)、Korbinian Riedhammer(未说明)、Tobias Bocklet(未说明) 💡 毒舌点评 亮点:实验设计非常系统,不仅对比了“层聚合”与“时间聚合”两种主流思路,还细致地探索了注意力头数的影响,并通过可视化注意力权重分布为结论提供了直观解释,逻辑链条完整。 短板:研究本质上是对现有预训练模型特征提取方式的“调参”和“比较”,缺乏更深层次的机制洞察或模型创新;且未提供代码,对于想快速验证或应用该方法的研究者来说不够友好。 📌 核心摘要 问题:预训练的wav2vec 2.0模型在病理语音分析中表现出色,但其不同Transformer层和时间步所编码的信息如何影响下游特定任务(如构音障碍评估)尚不明确。 方法核心:使用预训练的wav2vec 2.0-large作为特征提取器,固定其权重。对于五个构音障碍语音描述符(可理解度、辅音不精确、不恰当的停顿、声音刺耳、单调性)的回归任务,系统比较了两种基于注意力统计池化(ASP)的特征聚合策略:层聚合(对所有24层的特征在时间维度平均后,再跨层进行注意力加权)和时间聚合(对所有层的特征在层维度平均后,再沿时间进行注意力加权)。 创新点:首次系统性地分析和比较了层聚合与时间聚合两种策略在多种构音障碍语音描述符预测任务上的效果差异,并分析了注意力头数的影响及注意力权重的分布模式。 主要实验结果:在Speech Accessibility Project数据集上,实验表明:可理解度的预测在层聚合策略下表现更好(最佳MSE=0.723);而辅音不精确、声音刺耳和单调性的预测则受益于时间聚合策略(声音刺耳的最佳MSE从层聚合的0.902降至时间聚合的0.852)。不恰当的停顿在两种策略下表现无显著差异。注意力头数(1,5,64,128)对性能影响不大,5个头通常足够。详见下表: 实验组 聚合方式 注意力头数 可理解度 (PCC/MSE) 辅音不精确 (PCC/MSE) 不恰当停顿 (PCC/MSE) 声音刺耳 (PCC/MSE) 单调性 (PCC/MSE) 基线1 层均值-时间均值 - 0.684 / 0.760 0.788 / 0.440 0.688 / 0.228 0.636 / 0.929 0.551 / 0.866 基线2 第12层-时间均值 - 0.690 / 0.764 0.783 / 0.437 0.706 / 0.223 0.574 / 1.059 0.558 / 0.859 层聚合最佳 ASP(层) 5 0.696 / 0.725 0.793 / 0.428 0.707 / 0.220 0.624 / 0.959 0.554 / 0.856 时间聚合最佳 ASP(时间) 5 0.656 / 0.733 0.795 / 0.417 0.717 / 0.218 0.654 / 0.893 0.583 / 0.820 实际意义:为利用预训练语音模型进行病理语音分析提供了特征提取的实践指南:对于全局性、整体性的评估指标(如可理解度),可考虑融合多层信息;对于依赖局部时序模式的指标(如发音清晰度、声音特质),则应更注重保留时间分辨率。 主要局限性:研究使用的数据集以帕金森病患者为主(约80-90%),结论对其他构音障碍病因(如ALS、脑瘫)的泛化性需进一步验证;未开源代码;仅探索了wav2vec 2.0模型,未涉及其他预训练模型。 🏗️ 模型架构 论文提出的模型是一个基于预训练wav2vec 2.0的回归管道,其核心在于如何聚合特征。整体架构如图1所示,主要包含三个组件: ...

2026-04-24

Video-Robin: Autoregressive Diffusion Planning for Intent-Grounded Video-to-Music Generation

📄 Video-Robin: Autoregressive Diffusion Planning for Intent-Grounded Video-to-Music Generation #音乐生成 #扩散模型 #自回归模型 #音视频 #基准测试 ✅ 7.0/10 | 前25% | #音乐生成 | #扩散模型 #自回归模型 | #扩散模型 #自回归模型 | arxiv 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Vaibhavi Lokegaonkar(University of Maryland College Park, USA) 通讯作者:Vaibhavi Lokegaonkar, Aryan Vijay Bhosale(论文中标注为Corresponding authors,邮箱为{vlokegao,aryanvib}@umd.edu) 作者列表: Vaibhavi Lokegaonkar(University of Maryland College Park, USA) Aryan Vijay Bhosale(University of Maryland College Park, USA) Vishnu Raj(University of Maryland College Park, USA) Gouthaman KV(University of Maryland College Park, USA) Ramani Duraiswami(University of Maryland College Park, USA) Lie Lu(Dolby Laboratories, USA) Sreyan Ghosh(NVIDIA, USA) Dinesh Manocha(University of Maryland College Park, USA) 💡 毒舌点评 亮点:该工作将语音合成领域已验证有效的“自回归规划+扩散细化”混合范式,成功迁移到视频音乐生成任务,并通过引入文本条件控制解决了该领域长期存在的“创作者意图表达”短板,工程实现和实验验证都做得非常扎实。短板:其核心架构思想并非首创(如DiTAR),且评估主要集中在10秒短片段,对于真正考验音乐结构连贯性的长视频配乐场景缺乏验证,使得其“里程碑”成色稍显不足。 ...

2026-04-24

语音/音频论文速递 2026-04-24

语音/音频论文速递 2026-04-24 共分析 21 篇论文 ⚡ 今日概览 📥 抓取 21 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #语音识别 3篇 ███ #语音合成 3篇 ███ #语音情感识别 2篇 ██ #音频生成 1篇 █ #音频安全 1篇 █ #语音翻译 1篇 █ #音乐理解 1篇 █ #语音生物标志物 1篇 █ 📊 论文评分排行榜(20 篇,按分数降序) 排名 论文 评分 分档 主任务 🥇 Prosody as Supervision: Bridging the Non-Verbal–Verbal 8.0分 前25% #语音情感识别 🥈 Do LLM Decoders Listen Fairly? Benchmarking How Languag 7.5分 前25% #语音识别 🥉 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis w 7.5分 前25% #语音合成 4. Materialistic RIR: Material Conditioned Realistic RIR G 7.5分 前25% #音频生成 5. Evaluation of Automatic Speech Recognition Using Genera 7.5分 前25% #语音识别 6. Misinformation Span Detection in Videos via Audio Trans 7.5分 前25% #音频安全 7. Preferences of a Voice-First Nation: Large-Scale Pairwi 7.5分 前25% #语音合成 8. Hierarchical Policy Optimization for Simultaneous Trans 7.5分 前25% #语音翻译 9. Beyond Rules: Towards Basso Continuo Personal Style Ide 7.0分 前50% #音乐理解 10. Time vs. Layer: Locating Predictive Cues for Dysarthric 7.0分 前25% #语音生物标志物 11. ATRIE: Adaptive Tuning for Robust Inference and Emotion 7.0分 前25% #语音合成 12. Video-Robin: Autoregressive Diffusion Planning for Inte 7.0分 前25% #音乐生成 13. “This Wasn’t Made for Me”: Recentering User Experience 7.0分 前50% #语音识别 14. Dilated CNNs for Periodic Signal Processing: A Low-Comp 6.5分 前50% #语音增强 15. DiariZen Explained: A Tutorial for the Open Source Stat 6.5分 前50% #说话人分离 16. Full-Duplex Interaction in Spoken Dialogue Systems: A C 6.5分 前25% #语音对话系统 17. Sema: Semantic Transport for Real-Time Multimodal Agent 6.5分 前50% #实时处理 18. AUDITA: A New Dataset to Audit Humans vs. AI Skill at A 6.5分 前50% #音频问答 19. MER 2026: From Discriminative Emotion Recognition to Ge 6.0分 前50% #语音情感识别 20. Low-Rank Adaptation Redux for Large Models 5.5分 前50% #大语言模型 21 Phonological Subspace Collapse Is Aetiology-Specific an N/A - - 📋 论文列表 🥇 Prosody as Supervision: Bridging the Non-Verbal–Verbal for Multilingual Speech Emotion Recognition 🔥 8.0/10 | 前25% | #语音情感识别 | #领域适应 | #双曲神经网络 #自监督学习 | arxiv ...

2026-04-24

Aligning Stuttered-Speech Research with End-User Needs: Scoping Review, Survey, and Guidelines

📄 Aligning Stuttered-Speech Research with End-User Needs: Scoping Review, Survey, and Guidelines #语音识别 #语音活动检测 #数据集 #模型评估 #多语言 🔥 8.5/10 | 前25% | #语音识别 | #模型评估 | #语音活动检测 #数据集 | arxiv 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Hawau Olamide Toyin(MBZUAI, UAE) 通讯作者:Hanan Aldarmaki(MBZUAI, UAE) 作者列表: Hawau Olamide Toyin(MBZUAI, UAE) Mutiah Apampa(SpeechCare, Portugal & UAE) Toluwani Aremu(SpeechCare, Portugal & UAE) Humaid Alblooshi(SpeechCare, Portugal & UAE) Ana Rita Valente(SLAI & CUHK (SZ), China) Gonçalo Leal(SLAI & CUHK (SZ), China) Zhengjun Yue(SLAI & CUHK (SZ), China) Zeerak Talat(University of Edinburgh, UK) Hanan Aldarmaki(MBZUAI, UAE) 💡 毒舌点评 亮点在于它系统性地揭示了口吃语音处理领域“研究自嗨”与“用户真实需求”之间的鸿沟,并提出了一个清晰的任务分类法来弥合术语混乱。短板是作为一篇“指南”类论文,它主要诊断问题,解决方案相对宏观,缺乏具体的技术路线图或可立即实施的算法改进方案。 ...

2026-04-23