语音/音频论文速递 2026-04-27

语音/音频论文速递 2026-04-27 共分析 13 篇论文 ⚡ 今日概览 📥 抓取 13 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #音乐信息检索 2篇 ██ #语音识别 2篇 ██ #音频生成 1篇 █ #发音错误检测 1篇 █ #说话人识别 1篇 █ #音乐理解 1篇 █ #音频场景理解 1篇 █ #语音质量评估 1篇 █ 📊 论文评分排行榜(13 篇,按分数降序) 排名 论文 评分 分档 主任务 🥇 UniSonate: A Unified Model for Speech, Music, and Sound 8.5分 前25% #音频生成 🥈 Beyond Acoustic Sparsity and Linguistic Bias: A Prompt- 8.5分 前25% #发音错误检测 🥉 DM-ASR: Diarization-aware Multi-speaker ASR with Large 8.0分 前25% #说话人识别 4. Transformer-Based Rhythm Quantization of Performance MI 8.0分 前25% #音乐信息检索 5. Audio Effect Estimation with DNN-Based Prediction and S 8.0分 前25% #音乐理解 6. Listening with Time: Precise Temporal Awareness for Lon 8.0分 前25% #音频场景理解 7. TTS-PRISM: A Perceptual Reasoning and Interpretable Spe 7.5分 前25% #语音质量评估 8. Spectrographic Portamento Gradient Analysis: A Quantita 7.5分 前25% #音乐信息检索 9. Advancing automatic speech recognition using feature fu 7.0分 前25% #语音识别 10. Identifying and typifying demographic unfairness in pho 7.0分 前50% #语音识别 11. Full-Duplex Interaction in Spoken Dialogue Systems: A C 6.5分 前25% #语音对话系统 12. Audio Video Verbal Analysis (AVVA) for Capturing Classr 6.0分 前50% #音频问答 13. Earable Platform with Integrated Simultaneous EEG Sensi 5.5分 后50% #音频事件检测 📋 论文列表 🥇 UniSonate: A Unified Model for Speech, Music, and Sound Effect Generation with Text Instructions 🔥 8.5/10 | 前25% | #音频生成 | #流匹配 | #扩散模型 #统一音频模型 | arxiv ...

2026-04-27

Materialistic RIR: Material Conditioned Realistic RIR Generation

📄 Materialistic RIR: Material Conditioned Realistic RIR Generation #音频生成 #多模态模型 #Transformer #对比学习 #空间音频 ✅ 7.5/10 | 前25% | #音频生成 | #多模态模型 | #Transformer #对比学习 | arxiv 学术质量 3.8/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 中 👥 作者与机构 第一作者:Mahnoor Fatima Saad (University of Utah) 通讯作者:未说明 作者列表:Mahnoor Fatima Saad (University of Utah)、Sagnik Majumder (UT Austin)、Kristen Grauman (UT Austin)、Ziad Al-Halah (University of Utah) 💡 毒舌点评 这篇论文的亮点在于提出了一个优雅的解耦框架(MatRIR),将空间布局和材料属性对声学的影响分开建模,从而实现了对RIR生成的精细控制,这在概念上和实验上都比之前纠缠在一起的方法更合理。然而,其短板也相当明显:模型严重依赖模拟数据集(Acoustic Wonderland),且对某些材料(如钢)的建模效果不佳,这限制了其在真实世界复杂场景中的泛化能力;此外,论文未提供代码和预训练模型,大大削弱了其可复现性和即时影响力。 📌 核心摘要 问题:现有的房间脉冲响应(RIR)生成方法通常将场景的空间布局和材料属性纠缠在一个表示中,导致用户无法独立控制材料配置来探索其对声学的影响,限制了生成的灵活性和真实性。 方法核心:提出MatRIR模型,采用显式解耦设计。它包含一个空间模块(仅从RGB图像和深度图预测反映空间布局的初始RIR)和一个材料感知模块(根据用户指定的材料分割掩码,对初始RIR进行调制,生成最终的材料条件RIR)。该设计允许在不改变空间结构的情况下修改材料配置。 创新点:与先前方法(如M-CAPA)相比,核心创新在于显式解耦空间和材料因素的建模过程,而非在联合表示中隐式学习。此外,引入了两个新的评估指标(MatC和MatD)来专门衡量模型对材料声学特性的捕获能力。 主要实验结果:在Acoustic Wonderland数据集上,MatRIR在标准声学指标(如RTE)和材料指标(MatC, MatD)上均显著优于最强基线(M-CAPA)。具体而言,在未见材料配置的测试集上,RTE(混响时间误差)降低了约16.8%,材料分类准确率(MatC)提升了71.2%。人类感知研究显示,60.4%的参与者认为MatRIR生成的音频更真实。 实际意义:该工作为虚拟现实(VR)、增强现实(AR)、机器人和建筑声学设计等领域提供了更真实、可控的声学模拟能力,允许用户探索不同材料对空间听感的影响。 主要局限性:模型在输入视角受限(如靠近墙壁)或场景被严重遮挡时性能下降;对某些材料(如钢)的声学特性建模不准确;评估和训练完全依赖于模拟数据集,真实世界泛化能力有待验证。 🏗️ 模型架构 MatRIR模型采用模块化设计,核心思想是将空间和材料因素对RIR的影响显式分离并顺序建模。 ...

2026-04-24

语音/音频论文速递 2026-04-24

语音/音频论文速递 2026-04-24 共分析 21 篇论文 ⚡ 今日概览 📥 抓取 21 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #语音识别 3篇 ███ #语音合成 3篇 ███ #语音情感识别 2篇 ██ #音频生成 1篇 █ #音频安全 1篇 █ #语音翻译 1篇 █ #音乐理解 1篇 █ #语音生物标志物 1篇 █ 📊 论文评分排行榜(20 篇,按分数降序) 排名 论文 评分 分档 主任务 🥇 Prosody as Supervision: Bridging the Non-Verbal–Verbal 8.0分 前25% #语音情感识别 🥈 Do LLM Decoders Listen Fairly? Benchmarking How Languag 7.5分 前25% #语音识别 🥉 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis w 7.5分 前25% #语音合成 4. Materialistic RIR: Material Conditioned Realistic RIR G 7.5分 前25% #音频生成 5. Evaluation of Automatic Speech Recognition Using Genera 7.5分 前25% #语音识别 6. Misinformation Span Detection in Videos via Audio Trans 7.5分 前25% #音频安全 7. Preferences of a Voice-First Nation: Large-Scale Pairwi 7.5分 前25% #语音合成 8. Hierarchical Policy Optimization for Simultaneous Trans 7.5分 前25% #语音翻译 9. Beyond Rules: Towards Basso Continuo Personal Style Ide 7.0分 前50% #音乐理解 10. Time vs. Layer: Locating Predictive Cues for Dysarthric 7.0分 前25% #语音生物标志物 11. ATRIE: Adaptive Tuning for Robust Inference and Emotion 7.0分 前25% #语音合成 12. Video-Robin: Autoregressive Diffusion Planning for Inte 7.0分 前25% #音乐生成 13. “This Wasn’t Made for Me”: Recentering User Experience 7.0分 前50% #语音识别 14. Dilated CNNs for Periodic Signal Processing: A Low-Comp 6.5分 前50% #语音增强 15. DiariZen Explained: A Tutorial for the Open Source Stat 6.5分 前50% #说话人分离 16. Full-Duplex Interaction in Spoken Dialogue Systems: A C 6.5分 前25% #语音对话系统 17. Sema: Semantic Transport for Real-Time Multimodal Agent 6.5分 前50% #实时处理 18. AUDITA: A New Dataset to Audit Humans vs. AI Skill at A 6.5分 前50% #音频问答 19. MER 2026: From Discriminative Emotion Recognition to Ge 6.0分 前50% #语音情感识别 20. Low-Rank Adaptation Redux for Large Models 5.5分 前50% #大语言模型 21 Phonological Subspace Collapse Is Aetiology-Specific an N/A - - 📋 论文列表 🥇 Prosody as Supervision: Bridging the Non-Verbal–Verbal for Multilingual Speech Emotion Recognition 🔥 8.0/10 | 前25% | #语音情感识别 | #领域适应 | #双曲神经网络 #自监督学习 | arxiv ...

2026-04-24

Explicit Dropout: Deterministic Regularization for Transformer Architectures

📄 Explicit Dropout: Deterministic Regularization for Transformer Architectures #正则化 #音频分类 #多任务学习 #Transformer ✅ 7.0/10 | 前25% | #音频分类 | #正则化 | #多任务学习 #Transformer | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表: Vidhi Agrawal(未说明) Illia Oleksiienko(未说明) Alexandros Iosifidis(未说明) 💡 毒舌点评 亮点在于其理论框架清晰,将“随机扰动”这一黑盒操作转化为可显式优化的损失项,为Transformer正则化提供了更精细的控制粒度。短板是摘要中未提供任何具体的性能提升数字,使得“匹配或超越传统方法”的结论略显空洞,缺乏直观的说服力。 📌 核心摘要 这篇论文旨在解决传统Dropout方法依赖随机掩码、正则化效果不透明且难以精确控制的问题。其核心方法是提出一种确定性公式,将Dropout重新表述为一个可直接加入训练损失函数的显式正则化项,并推导出了适用于Transformer架构中注意力机制(Q、K、V)和前馈网络的正则化表达式。与已有方法相比,新方法去除了随机性,提供了清晰、细粒度的正则化强度控制。实验在图像分类、时序动作检测和音频分类任务上进行,摘要声称该方法匹配或超越了传统隐式Dropout,尤其在注意力层和前馈层应用时效果稳定。该工作的实际意义是为Transformer训练提供了一种可解释、可控制的正则化替代方案。主要局限性在于摘要未提供具体的量化对比结果,且其在更大规模模型或更复杂任务上的普适性有待验证。 🏗️ 模型架构 论文并未提出一个新的神经网络模型架构,而是提出了一种应用于现有Transformer架构的确定性正则化框架。其核心是将标准Dropout的随机掩码操作,转化为在训练损失函数中增加一个显式的正则化项。 整体流程:在训练过程中,模型的前向传播与标准Transformer一致。但在计算损失时,除了原有的任务损失(如交叉熵损失),会额外计算一个“显式Dropout正则项”。这个正则项的计算基于模型权重(或激活值)与一个确定的掩码模式(由dropout rate决定)的某种运算(具体公式论文中应有推导)。最终的总损失是任务损失与加权后的正则项之和。反向传播则基于这个总损失进行。 关键设计:该框架的关键在于为Transformer的不同组件(注意力查询、键、值矩阵,以及前馈网络的两层权重)分别推导出独立的正则化表达式,并为每个组件的正则化强度分配独立的系数。这使得正则化可以针对模型的不同部分进行精细调控。 与标准Dropout的区别:标准Dropout在训练时随机丢弃神经元,是一种隐式的、基于随机扰动的正则化。本文方法则将这种“丢弃”的效应,通过数学推导等价地表达为一个确定性的损失惩罚项,从而在优化目标上实现了显式化。 💡 核心创新点 确定性正则化公式:将随机Dropout重新表述为一个可直接加入损失函数的显式正则化项。这使得正则化过程变得确定、可解释,并消除了随机性带来的训练波动。 针对Transformer的细粒度控制:为Transformer架构中的不同组件(Attention的Q/K/V、FFN)分别推导正则化项,并允许为每个组件设置独立的正则化强度系数。这比传统Dropout的全局统一丢弃率提供了更灵活、更精准的控制手段。 去除对随机扰动的依赖:通过显式优化目标来实现正则化,理论上可以使训练过程更稳定,超参数(如dropout rate和正则化系数)的调整具有更清晰的物理意义。 理论推导与多任务验证:论文不仅提出了方法,还提供了数学推导,并在图像、时序、音频等多个不同领域的任务上进行了实验验证,展示了方法的通用性。 🔬 细节详述 训练数据:论文中未提及具体的数据集名称、来源、规模及预处理细节。 损失函数:总损失函数 = 任务损失 + λ * 显式Dropout正则项。其中λ是正则化强度系数。正则项的具体形式针对Transformer不同组件有所不同,论文中应有详细公式。 训练策略:论文中未提及学习率、warmup、batch size、优化器、训练步数/轮数、调度策略等具体信息。 关键超参数:核心超参数包括每个组件的dropout rate(控制掩码稀疏度)和对应的正则化强度系数λ。模型大小、层数等具体配置未说明。 训练硬件:论文中未提及GPU/TPU型号、数量及训练时长。 推理细节:该方法主要影响训练过程,推理时通常不使用Dropout或正则项。论文未提及推理阶段的特殊设置。 正则化技巧:本文的核心贡献本身就是一种正则化技巧。 📊 实验结果 主要实验:论文在图像分类、时序动作检测和音频分类三个任务上进行了实验。 性能声明:摘要中声明“显式Dropout匹配或超越了传统隐式方法”,并且“在应用于注意力层和前馈网络层时带来一致的增益”。 消融研究:摘要提到进行了消融研究,证明了通过调整正则化系数和dropout率可以实现“稳定的性能和可控的正则化”。 具体数值:论文摘要中未给出任何具体的性能数值(如准确率、mAP等)。因此,无法量化其与最强基线或SOTA的具体差距。所有关于性能的结论均基于摘要中的定性描述。 ⚖️ 评分理由 学术质量:5.5/7。创新性明确,将经典技术以新的形式重新表述并应用于主流架构,具有理论价值。技术方向正确,推导过程(假设存在)应具有正确性。但实验部分在摘要中缺乏定量支撑,无法判断其优势的显著性和普遍性,因此证据可信度打折。 选题价值:1.5/2。改进基础训练组件(Dropout)对整个深度学习社区具有潜在价值,尤其在追求训练稳定性和可解释性的背景下。与音频读者的相关性中等,因为其通用方法在音频任务上得到了验证。 开源与复现加成:0.0/1。摘要中完全未提及代码、模型、数据集的开源情况,也未提供足够的复现细节(如超参数配置),因此无法给予任何加成。 🔗 开源详情 论文中未提及开源计划。具体如下: ...

2026-04-23

语音/音频论文速递 2026-04-23

语音/音频论文速递 2026-04-23 共分析 27 篇论文 ⚡ 今日概览 📥 抓取 27 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 语音识别 5篇 █████ 基准测试 2篇 ██ 音频深度伪造检测 2篇 ██ 语音对话系统 2篇 ██ 音频分类 2篇 ██ 音乐信息检索 1篇 █ 语音合成 1篇 █ 麦克风阵列 1篇 █ 📊 论文评分排行榜(27 篇,按分数降序) 排名 论文 评分 分档 主任务 🥇 Indic-CodecFake meets SATYAM: Towards Detecting Neural 8.5分 前25% #音频深度伪造检测 🥈 Qwen3.5-Omni Technical Report 8.5分 前25% #语音对话系统 🥉 Towards Streaming Target Speaker Extraction via Chunk-w 8.5分 前25% #语音分离 4 Aligning Stuttered-Speech Research with End-User Needs: 8.5分 前25% #语音识别 5 ONOTE: Benchmarking Omnimodal Notation Processing for E 8.0分 前25% #基准测试 6 FastTurn: Unifying Acoustic and Streaming Semantic Cues 8.0分 前25% #语音对话系统 7 Environmental Sound Deepfake Detection Using Deep-Learn 8.0分 前25% #音频深度伪造检测 8 Embedding-Based Intrusive Evaluation Metrics for Musica 7.5分 前25% #音乐信息检索 9 Self-Noise Reduction for Capacitive Sensors via Photoel 7.5分 前25% #麦克风阵列 10 Utterance-Level Methods for Identifying Reliable ASR-Ou 7.5分 前25% #语音识别 11 Enhancing ASR Performance in the Medical Domain for Dra 7.5分 前25% #语音识别 12 Deep Hierarchical Knowledge Loss for Fault Intensity Di 7.5分 前25% #音频分类 13 SpeechParaling-Bench: A Comprehensive Benchmark for Par 7.5分 前25% #基准测试 14 ATIR: Towards Audio-Text Interleaved Contextual Retriev 7.5分 前25% #音频检索 15 Before the Mic: Physical-Layer Voiceprint Anonymization 7.5分 前25% #语音匿名化 16 MOMO: A framework for seamless physical, verbal, and gr 7.5分 前25% #机器人控制 17 CoInteract: Physically-Consistent Human-Object Interact 7.5分 前25% #视频生成 18 MoVE: Translating Laughter and Tears via Mixture of Voc 7.5分 前25% #语音翻译 19 Reducing the Offline-Streaming Gap for Unified ASR Tran 7.5分 前25% #语音识别 20 Tadabur: A Large-Scale Quran Audio Dataset 7.5分 前25% #语音识别 21 FLiP: Towards understanding and interpreting multimodal 7.5分 前50% #模型评估 22 Text-To-Speech with Chain-of-Details: modeling temporal 7.0分 前25% #语音合成 23 SAND: The Challenge on Speech Analysis for Neurodegener 7.0分 前50% #语音生物标志物 24 Explicit Dropout: Deterministic Regularization for Tran 7.0分 前25% #音频分类 25 X-VC: Zero-shot Streaming Voice Conversion in Codec Spa 6.5分 前25% #语音转换 26 Enhancing Speaker Verification with Whispered Speech vi 6.5分 前50% #说话人验证 27 Centering Ecological Goals in Automated Identification 6.5分 前25% #生物声学 📋 论文列表 🥇 Indic-CodecFake meets SATYAM: Towards Detecting Neural Audio Codec Synthesized Speech Deepfakes in Indic Languages 🔥 8.5/10 | 前25% | #音频深度伪造检测 | #预训练 | #多语言 #语音大模型 | arxiv ...

2026-04-23