Step-Audio-R1.5 Technical Report

📄 Step-Audio-R1.5 Technical Report #语音对话系统 #强化学习 #语音大模型 #基准测试 #模型评估 🔥 8.0/10 | 前25% | #语音对话系统 | #强化学习 | #语音大模型 #基准测试 | arxiv 学术质量 6.2/7 | 选题价值 1.7/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Yuxin Zhang(StepFun, 上海交通大学) 通讯作者:Fei Tian(StepFun) 作者列表:Yuxin Zhang(StepFun, 上海交通大学), Xiangyu Tony Zhang(新南威尔士大学), Daijiao Liu(StepFun, 新南威尔士大学), Fei Tian(StepFun), Yayue Deng(StepFun), Jun Chen(StepFun), Qingjian Lin(StepFun), Haoyang Zhang(StepFun, 南洋理工大学), Yuxin Li(StepFun, 南洋理工大学), Jinglan Gong(StepFun), Yechang Huang(StepFun), Liang Zhao(StepFun), Chengyuan Yao(StepFun), Hexin Liu(南洋理工大学), Eng Siong Chng(南洋理工大学), Xuerui Yang(StepFun), Gang Yu(StepFun), Xiangyu Zhang(StepFun), Daxin Jiang(StepFun) 💡 毒舌点评 论文精准地指出了当前音频模型训练中“RLVR导致机械感”的核心痛点,并给出了一个优雅且实验验证有效的解决方案(引入RLHF)。但作为一份技术报告,其最大的短板恰恰在于“技术”细节的不透明:训练数据规模与构成、奖励模型的具体架构与训练细节、RLHF阶段的采样与优化超参数等关键复现信息均付之阙如,这与其宣称的“技术报告”定位略有不符,使得外部研究者难以跟进。 ...

2026-04-29

StereoFoley: Object-Aware Stereo Audio Generation from Video

📄 StereoFoley: Object-Aware Stereo Audio Generation from Video #音频生成 #扩散模型 #空间音频 #跨模态 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #空间音频 #跨模态 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Tornike Karchkhadze(UC San Diego) 通讯作者:未说明(论文中未明确标注通讯作者) 作者列表:Tornike Karchkhadze(UC San Diego)、Kuan-Lin Chen(Apple)、Mojtaba Heydari(Apple)、Robert Henzel(Apple)、Alessandro Toso(Apple)、Mehrez Souden(Apple)、Joshua Atkins(Apple) 💡 毒舌点评 亮点:论文的核心贡献——合成数据管线,巧妙地将视频对象分割、跟踪与音频空间化规则结合,为解决小众任务的冷启动问题提供了一个系统且可扩展的“数据工厂”蓝图。短板:论文对合成数据与真实数据的差距讨论不足,且关键组件(如OVD、T2A模型)均为“内部”或“借鉴”,极大限制了结果的可复现性和社区验证。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开模型权重。 数据集:未提及公开其合成的立体声数据集。实验使用了公开的VGGSound和AudioSet,但筛选和替换后的具体版本未公开。 Demo:未提及在线演示。 复现材料:论文提供了详细的模型架构描述、训练超参数、数据集筛选条件和合成管线流程图,但缺乏关键的实现细节和工具链。 引用的开源项目:论文引用并基于了Synchformer、SAM2等开源模型或思想,但具体集成方式未详述。 整体:论文中未提及开源计划。 📌 核心摘要 问题:现有视频到音频生成模型大多只能生成单声道,或无法实现基于视频中物体位置的、语义一致的立体声效。主要瓶颈在于缺乏专业的、空间信息准确的立体声V2A训练数据集。 方法核心:提出StereoFoley框架,包含一个基础立体声V2A模型和一个合成数据管线。基础模型基于潜扩散和Transformer架构。核心创新是合成数据管线,它通过视频分析、对象检测与分割、文本到音频生成及基于规则的立体声空间化(基于物体位置和尺寸),自动生成带有精确空间标签的训练数据。 新意:首次提出端到端的、对象感知的立体声视频到音频生成框架。与现有工作相比,其创新不在于新的网络架构,而在于通过精心设计的合成数据管线,系统性地解决了训练数据缺失这一根本性障碍。 实验结果: 基础性能:StereoFoley-base在VGGSound数据集上的语义一致性(IB-score 30.61)、同步性(DeSync 0.42)等指标上与SOTA模型MMAudio和Kling-Foley性能相当。 对象感知效果:在合成的VGG-obj测试集上,StereoFoley-obj的立体声对象对齐分数(BAS)为0.33,显著高于基线MMAudio(0.08)和StereoFoley-base(0.23)。在用户研究中,StereoFoley-obj的MOS评分为3.46,显著高于其他系统(p < 0.001)。 实际意义:为影视、游戏、AR/VR内容创作提供了自动化生成空间准确音效的潜在工具,并建立了首个相关基准和评估指标(BAS)。 局限性:合成数据管线依赖多个复杂的、未公开的内部模型,其生成数据的真实感和多样性可能不足。模型规模庞大(~1.1B参数),训练成本高。 🏗️ 模型架构 StereoFoley的架构基于潜扩散模型,由编码器和扩散生成基础模型两大部分组成。 ...

2026-04-29

Stereophonic Acoustic Echo Cancellation Using an Improved Affine Projection Algorithm with Adaptive Multiple Sub-Filters

📄 Stereophonic Acoustic Echo Cancellation Using an Improved Affine Projection Algorithm with Adaptive Multiple Sub-Filters #语音增强 #自适应滤波 #实时处理 #声学回声消除 ✅ 6.0/10 | 前50% | #语音增强 | #自适应滤波 | #实时处理 #声学回声消除 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Gagandeep Singh (印度Dr B R Ambedkar国立技术学院电子与通信工程系) 通讯作者:未说明 作者列表:Gagandeep Singh (印度Dr B R Ambedkar国立技术学院电子与通信工程系)、Asutosh Kar (英国伯明翰城市大学建筑、建成环境、计算与工程学院)、Rohit Singh (印度Dr B R Ambedkar国立技术学院电子与通信工程系)、Vasundhara (印度国立技术学院瓦朗加尔分校电子与通信工程系)、Jesper R. Jensen (丹麦奥尔堡大学音频分析实验室)、M.G. Christensen (丹麦奥尔堡大学音频分析实验室) 💡 毒舌点评 本文系统性地将多子滤波器(MSF)结构、基于递推均方偏差的可变步长机制以及能量方差跟踪重置策略相结合,为解决立体声回声消除中信号高相关性与非圆性难题提供了一个工程上完整且有效的方案,在特定条件下提升了收敛速度和追踪能力。但其创新点更像是“乐高积木”式的组合,缺乏底层理论突破,且完全忽略了双讲(double-talk)和非线性失真这两个实际场景中的核心挑战,限制了其在复杂真实环境中的适用性。 ...

2026-04-29

Still Thinking or Stopped Talking? Dialogue Silence Intention Classification Using Multimodal Large Language Model

📄 Still Thinking or Stopped Talking? Dialogue Silence Intention Classification Using Multimodal Large Language Model #语音对话系统 #多模态模型 #数据集 #大语言模型 ✅ 6.5/10 | 前25% | #语音对话系统 | #多模态模型 | #数据集 #大语言模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Muyun Wu(京都大学信息学院) 通讯作者:未说明 作者列表:Muyun Wu(京都大学信息学院)、Zi Haur Pang(京都大学信息学院)、Koji Inoue(京都大学信息学院)、Tatsuya Kawahara(京都大学信息学院) 💡 毒舌点评 亮点:论文精准地抓住了对话系统中一个被长期忽视但至关重要的细节——沉默的意图解读,并为此构建了首个专门的多模态数据集,这种对具体问题的深入挖掘值得肯定。 短板:模型更像是现有成熟组件(Whisper, SigLip2, Q-former, Qwen3)的“乐高式”拼装,在多模态融合的核心技术上缺乏原创性。数据集规模相对较小(仅63名说话人),且仅针对日语,结论的普适性存疑。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开权重。 数据集:论文详细描述了数据集构建方法,但未明确说明是否会公开发布该数据集。 Demo:论文中未提及在线演示。 复现材料:论文提供了模型架构、训练策略(优化器、学习率、LoRA参数)、推理设置等复现所需的关键框架信息,但缺少损失函数、完整超参、训练日志等细节。 论文中引用的开源项目:CLIP [13], SigLip2 [14], AV-HuBERT [15], Marlin [16], Whisper, HuBERT, BLIP-2/Q-former [17], MMS-LlaMA [18], VideoLLaMA2/STPConnector [12], Qwen3, Llama3.2, Perceiver IO [19], Adam [20], LoRA [21]。 总结:论文中未提及明确的开源计划。 📌 核心摘要 本文旨在解决对话式语音系统(SDS)中用户长暂停(沉默)意图不明确的问题,即无法判断用户是在“思考”还是已“停止发言”。方法核心是将此问题重新定义为多模态(音频-视频)分类任务,并构建了一个包含63名日语母语者与“倾听系统”交互的专用数据集,对2秒以上的静音区间基于前后文语言线索、视觉线索和后续行为进行标注。基于此数据集,作者提出了一种名为SilenceLLM的多模态大语言模型架构,该架构结合了视觉编码器(评估了CLIP, SigLip2, AV-HuBERT, Marlin)、音频编码器(Whisper, HuBERT)、AV Q-former和LLM解码器。与已有方法相比,其新意在于专门针对沉默理解设计了数据集和端到端的分类框架,并在多个组件组合上进行了系统性对比。实验表明,最优配置(Qwen3-1.7B + SigLip2 (带STPConnector) + Whisper)达到了0.857的宏F1分数,显著优于单模态基线(音频0.662, 视频0.392),且与通用多模态LLM(如MMS-LlaMA)相比也有显著提升(p<0.05)。这项工作的实际意义在于为提升对话系统的交互自然性提供了关键模块和评估数据集。主要局限性是数据集规模较小、语种单一,且模型的创新性更多体现在系统集成而非底层算法突破。 ...

2026-04-29

Str-DiffSep: Streamable Diffusion Model for Speech Separation

📄 Str-DiffSep: Streamable Diffusion Model for Speech Separation #语音分离 #扩散模型 #流式处理 #实时处理 #波形建模 ✅ 7.5/10 | 前25% | #语音分离 | #扩散模型 | #流式处理 #实时处理 学术质量 6.2/7 | 选题价值 1.8/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Chenjun Zhao (剑桥大学工程系) 通讯作者:未明确说明(根据署名顺序和机构,Philip C. Woodland教授可能是通讯作者,但论文未明确标注) 作者列表:Chenjun Zhao (剑桥大学工程系), Guangzhi Sun (剑桥大学工程系), Keqi Deng (剑桥大学工程系), Chenda Li (上海交通大学), Philip C. Woodland (剑桥大学工程系) 💡 毒舌点评 该论文首次将扩散模型引入实时语音分离,通过巧妙融合SkiM的流式架构和MultiDiffusion的边界融合策略,成功解决了生成模型难以流式化的痛点,这是一个漂亮的工程-算法结合。不过,其推理计算量(RTF=0.51)仍是判别式模型SkiM(RTF=0.26)的两倍,且扩散带来的感知质量(PESQ)轻微下降也提醒我们,生成模型在实时场景的“免费午餐”可能并不完全免费。 🔗 开源详情 代码:论文中未提及代码链接或开源计划。 模型权重:未提及。 数据集:使用了公开数据集WSJ0-2mix和Libri2Mix,但未提供本文特有的处理脚本或新数据。 Demo:未提及在线演示。 复现材料:论文详细说明了模型架构、关键超参数、训练目标和实验设置,这些信息对复现有重要帮助,但未提供完整的训练代码或配置文件。 论文中引用的开源项目:引用了SkiM([6])、DiffSep([10])、MultiDiffusion([13])等相关工作的代码实现(推测),但未明确列出所依赖的具体开源库版本。 总体而言,论文中未提及任何开源计划。 📌 核心摘要 解决的问题:传统判别式语音分离模型在未见数据上泛化能力差,而现有的扩散模型分离方法无法满足实时流式处理的低延迟要求。 方法核心:提出Str-DiffSep,第一个用于流式语音分离的扩散模型。其核心是采用SkiM架构改造扩散模型的分数函数,使其能处理短时音频块;并引入源自图像生成的MultiDiffusion策略,通过融合重叠块的去噪结果来消除边界伪影,实现稳定的流式推理。 新意:这是首次将扩散模型框架成功适配到流式语音分离任务。创新点在于设计了基于记忆增强LSTM的分数函数网络,并将MultiDiffusion这一生成空间融合策略迁移到了语音波形领域。 主要结果:在WSJ0-2mix测试集上,Str-DiffSep在50ms延迟的流式设置下,SI-SDR(14.74 dB)和SI-SAR(14.97 dB)指标均优于判别式基线SkiM(13.69/14.01 dB),且接近离线DiffSep模型(14.32/14.66 dB)。在未见数据集Libri2Mix上,其DNSMOS评估分数超过SkiM,展现了更强的泛化能力。消融实验证明MultiDiffusion和状态传递缺一不可。 数据集 模式 MultiDiffusion States SI-SDR (dB) SI-SAR (dB) PESQ STOI WSJ0-2mix Str-DiffSep (online) yes yes 14.74 (5.56) 14.97 (5.06) 2.74 (0.53) 0.877 (0.102) WSJ0-2mix SkiM (online) - - 13.69 (4.98) 14.01 (4.42) 2.92 (0.46) 0.878 (0.081) WSJ0-2mix DiffSep (offline) - - 14.32 (5.69) 14.66 (5.07) 3.13 (0.55) 0.896 (0.093) (表1: WSJ0-2mix关键性能对比) 实际意义:证明了扩散模型可以作为一种有效且泛化能力更强的框架用于实时语音分离任务,为流式语音处理提供了新的模型选择。 主要局限:流式推理的实时因子(RTF=0.51)高于判别式模型,计算开销更大;MultiDiffusion的平滑策略可能导致感知质量指标(如PESQ)略有下降;实验数据集规模相对有限(仅两个2说话人混合数据集)。 🏗️ 模型架构 Str-DiffSep的整体架构旨在实现端到端的流式语音分离。其输入是连续的混合语音流,输出是按时间顺序生成的分离后语音流。 ...

2026-04-29

Stream-Voice-Anon: Enhancing Utility of Real-Time Speaker Anonymization Via Neural Audio Codec and Language Models

📄 Stream-Voice-Anon: Enhancing Utility of Real-Time Speaker Anonymization Via Neural Audio Codec and Language Models #语音匿名化 #神经音频编解码器 #自回归模型 #实时处理 #知识蒸馏 ✅ 7.0/10 | 前25% | #语音匿名化 | #神经音频编解码器 | #自回归模型 #实时处理 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Nikita Kuzmin (南洋理工大学,新加坡科技研究局A*STAR信息通信研究院), Songting Liu (南洋理工大学) — 论文标注为“Equal contribution”。 通讯作者:未说明 作者列表:Nikita Kuzmin(南洋理工大学,新加坡科技研究局A*STAR信息通信研究院)、Songting Liu(南洋理工大学)、Kong Aik Lee(香港理工大学)、Eng Siong Chng(南洋理工大学) 💡 毒舌点评 这篇论文的最大亮点在于成功地将当前火热的流式神经音频编解码器(NAC)与因果语言模型架构,从语音转换(VC)“搬运”到了说话人匿名化(SA)领域,并通过一系列工程技巧(如动态延迟、混合嵌入、多样化提示池)实实在在地提升了匿名化语音的“好用程度”(WER和UAR)。然而,其短板也很明显:面对一个稍微“用功”一点的攻击者(半知情攻击者),隐私保护性能就会显著下降,这暗示了其匿名化核心机制可能过于依赖表面特征变换,而非深度的身份信息剥离。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:训练集(LibriHeavy, CommonVoice)和提示池(VCTK, ESD, VoxCeleb1, CREMA-D)均为公开数据集,论文未说明其独占数据。 Demo:提供在线演示页面:https://paniquex.github.io/Stream-Voice-Anon。 复现材料:论文提供了较为详细的模型配置(第3.3节)、训练细节(第3.3节)和评估协议(第3.2节),但未提供预训练检查点或脚本。 论文中引用的开源项目: HuBERT:用于内容编码器的蒸馏特征提取。 ECAPA-TDNN:用于构建lazy-informed攻击者模型。 CAM++:用作说话人编码器。 SparkTTS:使用其全局分词器。 FishSpeech:使用其Firefly-GAN声学编码器/解码器。 ConvNeXt:内容编码器的骨干网络。 SwiGLU, RoPE:Transformer中的激活函数和位置编码。 总体而言:论文中未提及开源计划(除演示页面外)。 📌 核心摘要 要解决的问题:在实时流式场景下,现有的说话人匿名化方法要么在语音可用性(如识别率、情感保留)上妥协严重,要么隐私保护不足,亟需一种能平衡低延迟、高隐私和高实用性的系统。 方法核心:本文提出了Stream-Voice-Anon系统。其核心是借鉴流式语音转换(StreamVoice)的架构,采用一个基于因果Transformer的内容编码器(结合向量量化和知识蒸馏)提取与说话人无关的内容码,以及一个两阶段自回归模型(Slow-AR + Fast-AR)来生成目标声学码。为了实现匿名化,在推理阶段采用了三种策略:从提示池中随机选取并混合多个提示的语音内容、混合平均说话人嵌入与随机采样的高斯嵌入、以及动态调整延迟帧数。 与已有方法相比新在哪里:1)架构迁移:首次将先进的、基于因果语言模型的流式VC架构系统性地适配用于SA任务;2)匿名化增强:在VC架构基础上,创新性地集成了伪说话人表示采样、说话人嵌入混合和多样化提示选择等隐私保护技术;3)动态延迟:引入动态延迟训练(延迟d在1-8间随机采样),使得模型能在推理时灵活调整延迟以适应不同需求,而无需重新训练。 主要实验结果:在VoicePrivacy 2024 Challenge协议下,与之前的流式SOTA系统DarkStream相比: 实用性大幅提升:字错误率(WER)相对降低高达46%;未加权平均召回率(UAR,情感识别)相对提升高达28%。 隐私保护持平或略有下降:在“懒惰知情攻击者”场景下,等错误率(EER)与DarkStream相当(约47%);但在“半知情攻击者”场景下,EER降低了约15%,表明隐私保护有所退化。 延迟更低:实现与DarkStream可比甚至更低的延迟(180ms vs. 200ms)。 关键结果见下表: 模型 类型 WER ↓ UAR ↑ EER ↑ (lazy-informed) EER ↑ (semi-informed) DarkStream [15] (Mel+CL) 在线, 200ms 8.75 (0.0%) 34.73 (0.0%) 47.26 (0.0%) 21.83 (0.0%) Stream-Voice-Anon (cremad-emo-4rnd) 在线, 180ms 6.59 (24.7%↓) 44.59 (28.4%↑) 46.53 (1.5%↓) 18.63 (14.6%↓) Stream-Voice-Anon (cross-ds-4rnd) 在线, 180ms 4.71 (46.2%↓) 39.94 (15.0%↑) 47.72 (0.9%↑) 18.98 (13.1%↓) 实际意义:该系统在保持实时性的前提下,显著提高了匿名化语音在自动语音识别(ASR)和情感识别(SER)任务上的可用性,使其更适合用于需要保留语义和情感信息的实时通信场景(如紧急呼叫、心理咨询、法律记录)。 主要局限性:1) 面对经过针对性训练的“半知情”攻击者,隐私保护能力下降;2) 系统依赖GPU加速,无法在CPU上实时运行;3) 离线模型与在线模型之间仍存在性能差距;4) 论文未开源代码和模型,限制了复现与应用。 🏗️ 模型架构 系统整体架构如图1所示,主要包含训练和推理两个流程。 ...

2026-04-29

Streaming Speech Recognition with Decoder-Only Large Language Models and Latency Optimization

📄 Streaming Speech Recognition with Decoder-Only Large Language Models and Latency Optimization #语音识别 #语音大模型 #流式处理 #端到端 ✅ 7.0/10 | 前25% | #语音识别 | #语音大模型 | #流式处理 #端到端 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Genshun Wan(中国科学技术大学)†1 (论文标注†Equal contribution) 通讯作者:Jing-Xuan Zhang(陕西师范大学人工智能与计算机科学学院)⋆3 作者列表: Genshun Wan(中国科学技术大学,合肥)†1 Wenhui Zhang(科大讯飞研究院,科大讯飞有限公司,合肥)†2 Jing-Xuan Zhang(陕西师范大学人工智能与计算机科学学院,西安)⋆3 Shifu Xiong(中国科学技术大学,合肥)1 Jianqing Gao(科大讯飞研究院,科大讯飞有限公司,合肥)2 Zhongfu Ye(中国科学技术大学,合肥)1 💡 毒舌点评 这篇论文的亮点在于提出了一种优雅的“统一训练”范式,让一个LLM同时掌握流式和非流式ASR,并巧妙地利用MoChA作为可训练的“读/写”策略,实现了延迟降低62.5%的显著效果。不过,其短板也很明显:创新性主要是对已有模块(MoChA, LoRA, Qwen)的集成与优化,在模型架构上未提出根本性的新范式;且实验仅限于中文数据集,对于流式ASR在多语言、嘈杂环境或更长上下文场景下的泛化能力,缺乏有力验证。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开模型权重。 数据集:使用公开的AISHELL-1和AISHELL-2数据集。内部多领域数据集(MD)未公开。 Demo:未提及在线演示。 复现材料:论文详细说明了模型架构、超参数(如Conformer层数、LoRA秩、学习率调度、损失函数权重λ等)和训练流程(总步数、优化器),提供了较高的可复现性信息。未提供检查点或附录。 论文中引用的开源项目:引用了WeNet [32] 作为基线,但未说明是否依赖其代码。LLM初始化使用了公开的预训练模型 Qwen 2.5-1.5B。 论文中未提及开源计划。 📌 核心摘要 要解决什么问题? 如何在基于解码器-only大语言模型的语音识别框架中,实现高效的流式识别,并解决延迟与精度的平衡问题。 方法核心是什么? 提出了一种基于单调分块注意力的读/写策略网络,用于动态分割语音流;结合最小延迟训练目标优化分割边界;并采用流式与非流式���型共享参数的联合训练策略。 与已有方法相比新在哪里? 与依赖CTC或强制对齐的级联方法不同,该方法实现了端到端训练;通过动态的读/写策略替代固定大小音频块的处理,实现了自适应的低延迟解码;统一了流式与非流式模式的训练。 主要实验结果如何? 在AISHELL-1和AISHELL-2数据集上,流式模式的字符错误率分别为5.1%和5.5%,优于基线系统。延迟优化(minLT)在保持精度几乎不变的情况下,将平均令牌生成延迟从16帧降低到6帧(降低62.5%)。消融实验证实了联合训练、LoRA和预训练LLM初始化的重要性。 实际意义是什么? 为实时语音应用(如实时字幕、同声传译)提供了一种高精度、低延迟的语音识别解决方案,同时简化了支持流式/非流式双模式的ASR系统开发流程。 主要局限性是什么? 实验仅在中文普通话数据集上验证,缺乏在多语言、低资源或嘈杂环境下的泛化性评估;方法性能依赖于前置的HMM强制对齐来生成最小延迟训练的目标边界;未公开代码与模型,限制了可复现性。 🏗️ 模型架构 本文提出了一种用于流式语音识别的解码器-only大语言模型(LLM)架构,其核心是集成一个自适应的读/写策略网络。整体架构如论文中图2所示。 ...

2026-04-29

Streamingbench: Assessing the Gap for MLLMs to Achieve Streaming Video Understanding

📄 Streamingbench: Assessing the Gap for MLLMs to Achieve Streaming Video Understanding #基准测试 #模型评估 #多模态模型 #音视频 ✅ 7.5/10 | 前25% | #基准测试 | #多模态模型 | #模型评估 #音视频 学术质量 5.8/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Junming Lin(BUPT)(论文中Junming Lin标记为1⋆,表明是主要贡献者之一,但未明确“第一作者”;机构BUPT在作者列表中标注) 通讯作者:未说明(论文中未明确标注通讯作者。Maosong Sun标记为1†,但†符号在作者列表中未定义为通讯作者) 作者列表:Junming Lin3⋆(BUPT)、Zheng Fang1⋆(未说明)、Chi Chen1†(清华大学计算机系)、Haoxuan Cheng4(西安交通大学)、Zihao Wan1(未说明)、Fuwen Luo1(未说明)、Ziyue Wang1(未说明)、Peng Li2(清华大学AIR)、Yang Liu1,2(清华大学计算机系、清华大学AIR)、Maosong Sun1†(清华大学计算机系、清华大学AIR) 💡 毒舌点评 本文最大的贡献是“承认差距”——它用一套精心设计的考卷,无情地证明了当前最聪明的多模态大模型在“边看边想边答”的能力上,依然是个不及格的“学龄前儿童”(最佳模型比人类低21.4%),这记耳光打得非常及时且必要。然而,它只负责“诊断”却未开“药方”,深度的分析和指明的改进方向(如处理并发线索、主动输出)虽有价值,但停留在表面,更像一份详尽的“体检报告”而非“手术方案”。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:论文中未提及公开本文评估的模型权重(这些权重属于各模型原作者)。 数据集:论文明确指出StreamingBench已公开(“we hope our work facilitates further advancements…”),但未给出具体获取链接。论文中详细描述了数据构建过程,理论上可部分复现。 Demo:未提及。 复现材料:论文在附录(未提供)中应包含更详细的评估设置说明(如对非流式模型的评估方法)。正文中给出了一些评估配置(如输入帧数、分辨率处理)。 引用的开源项目:论文引用了大量开源模型作为评估对象,包括LLaVA-OneVision, Qwen2-VL, InternVL2, MiniCPM系列, VideoLLM-online, Flash-VStream等。 📌 核心摘要 问题:当前多模态大语言模型(MLLMs)主要针对离线视频理解(处理完整视频后回答问题),与人类能实时“观看、聆听、思考、回应”流式视频输入的能力存在显著差距。现有基准无法有效评估这种流式能力。 方法核心:提出StreamingBench,首个专门评估MLLMs流式视频理解能力的综合基准。该基准包含900个视频和4500个精心制作的问题对,每个视频设有5个不同时间点的问题以模拟连续流场景。它从三个核心维度评估:实时视觉理解、全模态(视觉+音频)理解和上下文理解。 新意:与传统离线基准相比,StreamingBench的关键创新在于强调了时间性(问题需在特定时间点回答)、交互性(支持多轮任务)和多模态同步性(需对齐处理视觉和音频流)。 主要实验结果:评估了3个闭源和20个开源MLLMs。即使是最强的闭源模型Gemini 1.5 Pro(总分70.26%),也比人类平均水平(91.66%)低21.4个百分点。开源模型中MiniCPM-o 2.6表现最好(66.01%)。模型在处理“并发线索”和“后续线索”时性能显著下降,表明其上下文记忆和实时对齐能力薄弱。分析还发现,使用语音指令会降低模型性能,而直接处理原生音频比使用ASR转录效果更好。关键性能对比如下表: 模型类型 模型名称 总体得分(%) 实时视觉(%) 全模态(%) 上下文(%) 人类 Human 91.66 91.46 90.26 93.55 闭源 Gemini 1.5 Pro 70.26 77.39 67.80 51.06 GPT-4o 64.31 74.54 50.95 49.06 Claude-3.5-sonnet 60.06 74.04 41.40 39.70 开源 (~7B) MiniCPM-o 2.6 66.01 79.88 53.40 38.45 InternVL2.5 64.36 78.32 46.70 43.14 InternLM-XComposer2.5-OmniLive 60.80 75.36 46.20 33.58 实际意义:为评估和推进真正具有实时交互能力的多模态AI系统(如个人助理、实时翻译、智能监控)提供了首个标准化测试集和基线,明确了当前技术的主要短板和未来发展方向。 主要局限性:本文是一项评估研究,未提出任何新的模型或算法来解决所发现的问题。其深度分析停留在现有模型的能力表征上,未进行根本性的模型架构或训练方法的探索。此外,视频来源为YouTube,可能无法完全覆盖所有现实流式场景。 🏗️ 模型架构 本文是一篇基准测试与评估论文,并未提出一个新的模型架构。其核心贡献在于定义和构建了一个评估框架(StreamingBench),并利用该框架测试了多种现有的MLLMs。 ...

2026-04-29

StreamMark: A Deep Learning-Based Semi-Fragile Audio Watermarking for Proactive Deepfake Detection

📄 StreamMark: A Deep Learning-Based Semi-Fragile Audio Watermarking for Proactive Deepfake Detection #音频深度伪造检测 #端到端 #鲁棒性 #数据集 🔥 8.0/10 | 前25% | #音频深度伪造检测 | #端到端 | #鲁棒性 #数据集 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Zhentao Liu(EPFL, Switzerland) 通讯作者:未说明 作者列表:Zhentao Liu(EPFL, Switzerland)、Milos Cernak(Logitech Europe, Switzerland) 💡 毒舌点评 这篇论文巧妙地将图像领域的“半脆弱水印”概念移植到音频,并精准定义了“良性”与“恶意”操作,为应对深度伪造提供了比传统鲁棒水印更聪明的“主动告警”方案,思路值得称赞。然而,其将所有深度伪造攻击简化为“变调”这一单一操作进行模拟,失真层的设计略显“偷懒”,可能无法完全覆盖未来更复杂的合成攻击(如更自然的音色替换或内容编辑),削弱了结论的绝对说服力。 🔗 开源详情 代码:提供了代码仓库链接:https://github.com/L1uZhentao/deepfake_benchmark 模型权重:论文中未提及公开预训练模型权重。 数据集:论文开源了用于评估的深度伪造基准测试集(Deepfake Benchmark),作为代码仓库的一部分发布。 Demo:未提及。 复现材料:提供了充分的训练细节,包括数据集(LibriSpeech子集)、模型参数量、损失函数公式与权重、优化器超参数(Adam,β值,学习率)、训练硬件(2x RTX 2080),这为复现提供了良好基础。 论文中引用的开源项目:未提及依赖的其他开源工具或模型。 总结:论文在可复现性方面表现良好,开源了关键的数据和代码,但缺少现成的模型权重。 📌 核心摘要 要解决什么问题:现有的被动深度伪造音频检测方法面临泛化能力差、易被对抗攻击绕过、难以区分良性AI处理(如降噪)与恶意伪造的困境。传统鲁棒水印在伪造后仍能提取,反而无法证明音频已被篡改。 方法核心是什么:提出StreamMark,一种基于深度学习的半脆弱音频水印系统。其核心是设计一个Encoder-Distortion-Decoder架构,其中失真层包含并行的良性变换(如裁剪、加噪)和恶意变换(如变调,模拟音色/内容篡改)。通过复合损失函数训练,使水印在经历良性操作后仍可恢复,但在经历语义篡改的恶意操作后无法恢复(准确率降至随机水平)。 ...

2026-04-29

Stress Prediction from Temporal Emotion Trajectories in Clinical Patient-Physician Conversations

📄 Stress Prediction from Temporal Emotion Trajectories in Clinical Patient-Physician Conversations #语音情感识别 #多任务学习 #迁移学习 #少样本 ✅ 7.0/10 | 前25% | #语音情感识别 | #多任务学习 | #迁移学习 #少样本 学术质量 5.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Tobias Pertlwieser(Friedrich-Alexander-Universität Erlangen-Nürnberg, Pattern Recognition Lab) 通讯作者:Tobias Pertlwieser†(同第一作者) 作者列表: Tobias Pertlwieser†, Hiuching Hung (Friedrich-Alexander-Universität Erlangen-Nürnberg) Tomás Arias-Vergara (Friedrich-Alexander-Universität Erlangen-Nürnberg) Paula Andrea Pérez-Toro (Friedrich-Alexander-Universität Erlangen-Nürnberg) Carolin Müller, Meike Schmitt, Hanna Huebner, Philipp Kreis, Irem Karaman, Miriam Saatze, Annika Krückel, Chloé Goossens, Katharina Seitz, Jonathan Singer (Department of Gynecology and Obstetrics, University Hospital Erlangen; Comprehensive Cancer Center Erlangen–EMN) Armine Garibyan, Peter Uhrig (Department of English and American Studies, Friedrich-Alexander-Universität Erlangen-Nürnberg) Peter A. Fasching, Manuel Hörner (Department of Gynecology and Obstetrics, University Hospital Erlangen; Comprehensive Cancer Center Erlangen–EMN; Pattern Recognition Lab) Andreas Maier (Pattern Recognition Lab, Friedrich-Alexander-Universität Erlangen-Nürnberg) 💡 毒舌点评 亮点:提出将“情绪轨迹”作为压力预测的中间表征,比直接使用原始声学特征或简单的统计量更具物理可解释性,并通过注意力机制巧妙定位了对话中的“压力时刻”。短板:核心数据集只有30名患者,这个样本量在深度学习时代显得过于脆弱,其结论的可靠性和模型的泛化能力亟需更大规模数据的验证,目前更像是一个针对特定小群体的可行性展示。 ...

2026-04-29