BhashaSutra: A Task-Centric Unified Survey of Indian NLP Datasets, Corpora, and Resources

📄 BhashaSutra: A Task-Centric Unified Survey of Indian NLP Datasets, Corpora, and Resources #数据集 #基准测试 #多语言 #低资源 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Raghvendra Kumar(印度理工学院巴特那分校,计算机科学与工程系) 通讯作者:Devankar Raj(Indian Institute of Technology Patna,根据邮箱 devankarraj@gmail.com 推断) 其他作者:Sriparna Saha(印度理工学院巴特那分校,计算机科学与工程系) 💡 毒舌点评 亮点:堪称印度语言NLP的“维基百科”和“资源导航图”,第一次把散落在各个角落的珠子串成了完整的项链,让后来者不用再摸着石头过河。槽点:作为一篇“地图”本身,它没有开垦新的土地(提出新方法),而且在这个快速发展的领域,这幅“地图”可能很快需要更新版本,尤其是在大模型和生成式AI席卷一切之后。 📌 核心摘要 这篇论文旨在解决印度语言NLP研究资源分散、缺乏统一概览的痛点。作者首次提出了一个以任务为中心的统一分类体系,系统性地梳理和整合了超过200个数据集、50个基准测试以及100多个模型、工具和系统,覆盖了从核心语言处理(如分词、词性标注)到文本分类、生成翻译、信息检索、语音与多模态,乃至社会文化任务(如虚假信息检测、文化理解)的17个细分领域。论文不仅列举了资源,更深入分析了资源分布的不平衡性(如印地语资源远多于其他语言)、标注质量参差、评估标准不一等关键挑战,并特别关注了代码混合、文化语境等印度语言特有的问题。其核心贡献在于为印度语言NLP社区提供了一个全面的资源基准、一个可扩展的分类框架以及对未来研究方向的明确指引,旨在推动更公平、包容和文化扎根的NLP研究。 🏗️ 模型架构 不适用。本文是一篇综述论文,不提出新的模型架构。其核心“架构”是其提出的任务中心统一分类法。该分类法将印度语言NLP资源组织为六个高层组别,包含十七个细粒度任务: 核心语言处理:分词/归一化/形态分析、词性标注、命名实体识别。 文本分类与语义:情感与情绪分析、仇恨言论与毒性检测、主题分类、自然语言理解。 生成与翻译:摘要、机器翻译、问答。 检索与交互:信息检索、对话系统。 语音与多模态:语音技术、多模态语言理解。 社会、文化与新兴任务:虚假信息与事实核查、文化知识与理解、新兴方向(如偏见、风格迁移)。 💡 核心创新点 首个统一的印度语言NLP资源综述:填补了没有专门针对印度语言NLP资源进行全面、系统性综述的空白。之前的综述要么只关注少数高资源语言,要么将印度语言作为多语言设置的一部分。 任务中心的统一分类体系:建立了一个清晰、可扩展的分类框架(6大类,17个任务),将原本分散在文本、语音、多模态等不同模态和不同应用场景下的资源进行了逻辑整合,便于研究者按需查找。 全面的资源编目与缺口分析:不仅汇总了海量的资源(200+数据集,50+基准,100+模型/工具),还深入分析了生态系统层面的共性挑战,如语言覆盖不均、标注碎片化、领域偏斜、评估不一致、跨语言脆弱性等。 聚焦印度语境的特有挑战:特别强调了在印度多语言、多文化、多代码混合背景下NLP研究的独特问题,如文化语境理解、代码混合作为一类现象、方言覆盖、社会偏见等,并将其作为独立的分析维度和未来方向。 🔬 细节详述 资源收集方法:通过系统性搜索主要NLP会议(ACL, EMNLP等)、arXiv、机构仓库(如AI4Bharat, LDC-IL),辅以引文链和任务关键词查询。详细的筛选标准、纳入/排除流程、去重和元数据提取过程在附录E中说明。 分类体系:如上文“模型架构”所述,采用两级分类(高层组别 -> 细粒度任务)。 语言覆盖:涵盖印度宪法规定的22种预定语言以及数百种方言。论文通过图表(如图1、图2及附录各任务图表)直观展示了各语言在不同任务下的资源数量,清晰揭示了印地语、英语资源占主导,而许多低资源语言(如博多语、孔卡尼语)资源匮乏的现状。 资源属性记录:对于每个资源,论文尝试记录其语言覆盖、领域、模态(文本、语音、图像)、许可和使用限制(附录F)、以及关键的文档化信息(如标注流程、评估指标)。 未来方向:在附录D中详细阐述了8个关键方向,包括:超越高资源语言的平衡覆盖、超越聚合指标的细粒度评估、文化语境感知建模、负责任与包容性NLP、代码混合作为一类现象、公平扩展多模态资源、弥合研究与部署鸿沟、统一基准与纵向评估。 📊 实验结果 不适用。作为综述,本文没有进行实验。但其“结果”体现在对资源现状的量化分析和定性总结中: 资源分布不均:例如,在“情感与情绪分析”任务中,印地语有18个数据集,英语有14个,而许多语言仅有1个(图6)。在“NER”任务中,印地语有7个数据集,而超过一半的语言只有1个(图5)。 任务覆盖差异:基础任务(如NER,情感分析)资源相对丰富,而新兴或更复杂的任务(如文化理解、事实核查)资源较少且更具挑战性。 模态发展:文本资源占主导,语音和多模态资源正在增长但仍有很大缺口。 共性挑战总结:论文归纳了跨任务的普遍问题,如评估指标不统一、数据文档不充分、模型对代码混合和方言的泛化能力弱等。 ⚖️ 评分理由 创新性:7/10 - 创新性在于其系统性的整合与分类工作,为领域提供了不可或缺的基础设施,而非提出新的算法。在综述类工作中,其全面性和针对性具有较高价值。 实验充分性:N/A - 综述无实验,但其资源收集和分析过程是系统和严谨的。 实用价值:9/10 - 极高。对于任何从事印度语言NLP研究的学生、学者或工程师来说,这是一份必读的“资源地图”和“路线图”,能极大节省资源查找时间,并指明有潜力的研究方向。 灌水程度:2/10 - 内容扎实,信息密度高,分析到位,没有明显的冗余或夸大表述。附录提供了大量补充表格,增强了论文的参考价值。 🔗 开源详情 代码:论文本身未提及开源代码。但提供了一个GitHub Issue链接(https://github.com/...,原文中链接被截断)用于读者报告问题或补充资源,这表明作者可能希望建立一个持续更新的社区资源库。 模型权重:不适用。 数据集:论文不生产新数据集,而是汇总现有公开数据集。它为每个引用的数据集提供了来源信息。 预训练权重:不适用。 在线Demo:未提及。 引用的开源项目:论文中提到了多个重要的开源工具和项目,如 iNLTK (印度语言NLP工具包)、AI4Bharat IndicNLP、IndicTrans2、MuRIL、Vakyansh (ASR工具包)等,这些是印度语言NLP生态的重要组成部分。 🖼️ 图片与表格 图1: 任务中心概览图 | 保留: 是 - 这是论文分类体系的视觉化呈现,清晰展示了六大任务组别及其包含的子任务,是理解论文框架的核心。 图2: 语言资源统计概览 | 保留: 是 - 直观展示了各印度语言在整体资源上的数量分布,一目了然地揭示了资源不平衡的核心问题。 图3-20 (各任务下的语言资源分布柱状图) | 保留: 是 - 这些图表(如Tokenization、POS Tagging、Sentiment Analysis等)提供了每个细分任务下各语言资源数量的详细视图,是支撑论文“资源分布不均”结论的关键证据,具有很高的信息价值。 附录表格 (Table 1-20等) | 保留: 是 - 这些表格按任务分类详细列出了具体的数据集、基准、模型/工具的名称、语言、描述、引用等信息,是论文作为“资源目录”的核心内容,实用性极强。虽然未在正文中全部显示,但论文明确指出其存在并进行了描述。 📸 论文图片 ...

2026-04-21

ClariCodec: Optimising Neural Speech Codes for 200bps Communication using Reinforcement Learning

📄 ClariCodec: Optimising Neural Speech Codes for 200bps Communication using Reinforcement Learning #语音识别 #强化学习 #低资源 #模型评估 ✅ 评分:7.0/10 | arxiv 👥 作者与机构 (注:根据您提供的摘要信息,无法提取作者的具体机构。以下为基于常见情况的推断格式,需根据论文全文确认。) 第一作者:Junyi Wang(推断为某大学或研究机构) 通讯作者:Chao Zhang(推断为导师或项目负责人,所属机构同上) 其他作者:Chi Zhang, Jing Qian, Haifeng Luo, Hao Wang, Zengrui Jin(推断与第一作者同属一个团队或合作机构) 💡 毒舌点评 亮点:巧妙地将“让语音听清”这个工程问题,转化为一个“策略优化”的RL问题,跳出了传统声学重建损失的桎梏,思路值得玩味。 槽点:实验只用了LibriSpeech这一个“干净”数据集,对于真实世界带宽受限场景中可能出现的噪声、混响等挑战缺乏验证,有点像在无菌实验室里测试防弹衣。 📌 核心摘要 本文针对卫星、水下通信等超低比特率(200bps)场景下,传统神经语音编解码器因优化重建质量而牺牲可懂度的问题,提出了ClariCodec。其核心方法是将编码器的量化过程重新定义为一个随机策略,并利用强化学习(RL),以词错率(WER)作为奖励信号对编码器进行微调,而冻结解码器等声学重建管线。实验表明,即使不使用RL,ClariCodec在LibriSpeech test-clean集上已达到3.68%的WER,性能优于更高比特率的编解码器;经过RL微调后,WER进一步降至3.20%(test-clean)和8.93%(test-other),相对降低13%,同时保持了感知质量。该工作证明了在极低比特率下,直接以可懂度为目标进行优化的有效性。 🏗️ 模型架构 ClariCodec的整体架构遵循经典的自动编码器范式,但其核心创新在于量化模块的训练方式。 输入:原始语音波形。 编码器 (Encoder):一个神经网络(具体结构如卷积层、Transformer层等需查阅全文),将连续语音信号映射为低维的连续特征向量(编码)。 量化器 (Quantizer) - 策略化核心: 传统方式:使用矢量量化(VQ)等方法,通过最小化重建误差(如均方误差)来学习码本。 ClariCodec方式:将量化过程视为一个随机策略。编码器输出的连续特征被视为“状态”,量化器根据此状态,从可学习的离散码本中“选择”一个码字作为“动作”。这个选择过程可以引入随机性(如基于概率的采样)。 关键:这个“策略”(即量化器)的参数(码本)不再通过重建损失更新,而是通过RL优化。 解码器 (Decoder):另一个神经网络,接收量化后的离散码字序列,重建出语音波形。 训练流程(两阶段): 阶段一(基线训练):使用传统的声学重建损失(如多尺度谱损失、对抗损失等)联合训练编码器、量化器(VQ方式)和解码器,得到一个基础模型。 阶段二(RL微调):冻结解码器及声学重建管线。仅对编码器(可能包括量化器的策略参数)进行微调。微调的损失函数不再是重建损失,而是基于WER的RL奖励。具体地,将量化后的码字序列送入一个预训练的、固定的ASR模型,计算WER。WER越低,奖励越高。通过策略梯度算法(如REINFORCE或其变体)更新编码器参数,使得其产生的特征更利于量化器选择出能导致低WER的码字。 输出:重建的语音波形。 通俗理解:想象一个翻译过程。传统方法是让翻译员(编码器+解码器)尽量把原文(输入语音)复述得一模一样(重建损失)。而ClariCodec是先让翻译员把文章缩写成几个关键词(量化),然后请一位考官(ASR模型)根据这几个关键词回答阅读理解题(识别内容)。它通过不断调整缩写策略(RL微调编码器),让考官答对率最高(WER最低),而不在乎缩写后的关键词是否能完美复原原文的修辞和语气(重建质量被冻结的解码器保证在一个可接受的水平)。 💡 核心创新点 将语音量化建模为随机策略:这是根本性的范式转变。它将量化从“最小化重建误差”的确定性优化问题,转变为“最大化下游任务奖励”的随机策略搜索问题,为极低比特率编码提供了新的优化目标。 WER驱动的强化学习微调框架:提出了一套完整的、可行的RL训练流程。通过冻结解码器,仅微调编码器/量化器策略,将RL的优化目标精准地锁定在“可懂度”上,避免了端到端RL训练的不稳定性和高计算成本。 两阶段训练策略:先通过传统重建损失训练一个具备基本重建能力的基线模型,再通过RL进行针对性优化。这种“预训练+微调”的范式保证了模型的起点性能,并使RL优化更加稳定高效。 在极端比特率下实现高可懂度:在200bps这一极具挑战性的比特率下,取得了当时领先的WER性能(3.20% on LibriSpeech test-clean),证明了所提方法的有效性。 🔬 细节详述 训练数据:论文中使用了LibriSpeech数据集。这是一个广泛使用的英文语音识别数据集,包含约1000小时的朗读语音。论文中提到使用test-clean和test-other子集进行评估,因此训练集很可能使用了train-clean-100和/或train-clean-360。具体规模和预处理方式(如采样率、窗长等)需查阅全文。 损失函数: 阶段一(基线):包含声学重建损失。这通常是多尺度谱损失(Multi-Resolution STFT Loss)、梅尔谱重建损失,以及可能的对抗损失(GAN判别器损失)的组合,以确保重建语音的质量和自然度。 阶段二(RL微调):核心是策略梯度损失。奖励信号 R = -WER(WER越低,奖励越高)。损失函数形式为 L = -E[log π(a|s) * R],其中 π(a|s) 是编码器策略在状态s(输入特征)下选择动作a(量化码字)的概率。通过采样多个动作并估计梯度来更新策略。 训练策略: 优化器:通常使用Adam或AdamW。 学习率:RL微调阶段的学习率通常远小于预训练阶段,可能需要进行warmup。具体数值未知。 Batch Size:未知,但RL训练通常需要较大的batch来稳定梯度估计。 关键超参数: 比特率:固定为200bps。 码本大小:量化器的码本维度和大小是关键超参数,直接影响表达能力和量化误差。 RL相关:RL算法的具体选择(如REINFORCE、PPO)、奖励基线(baseline)的设置、熵正则化系数(鼓励探索)等。 训练硬件:未知。训练一个神经编解码器并进行RL微调通常需要高端GPU(如NVIDIA A100/V100),训练时间可能在数天到数周。 推理细节:推理时,编码器和量化器(确定性地选择概率最大的码字)构成一个确定性系统,直接生成码字流,无需RL采样。 数据增强/正则化:在基线训练阶段,可能使用了语音常见的数据增强,如添加噪声、混响、速度扰动等,以提升鲁棒性。RL阶段可能使用了熵正则化来防止策略过早收敛到局部最优。 📊 实验结果 主要指标对比: 模型/条件 比特率 (bps) LibriSpeech test-clean WER (%) LibriSpeech test-other WER (%) ClariCodec (无RL) 200 3.68 - ClariCodec (有RL) 200 3.20 8.93 (论文声称竞争性的更高比特率编解码器) >200 ~3.68 或更高 - 注:test-other的WER在无RL基线中未明确给出,但RL后为8.93%。 消融实验: RL微调的有效性:从3.68% (无RL) 到 3.20% (有RL),WER相对降低了约13%。这直接证明了RL优化框架的有效性。 其他消融:可能包括移除RL框架中的某个组件(如熵正则化)、使用不同的奖励函数等,具体细节需查阅全文。 与SOTA方法的对比:论文通过指出其200bps的基线模型性能已与“更高比特率的编解码器”具有竞争力,间接进行了对比。直接的SOTA对比表格需在全文的实验部分查找。 不同数据集下的结果:在更困难的test-other集上,WER为8.93%,显著高于test-clean的3.20%,这符合预期,表明模型性能在干净语音上非常出色,但在更复杂、多样化的语音上仍有下降空间。 ⚖️ 评分理由 创新性:7.5/10 - 将RL引入语音编码的量化环节是一个非常巧妙且针对性强的创新,跳出了传统优化框架,在特定问题上效果显著。但其核心思想(用下游任务损失优化上游模型)在机器学习中并不罕见。 实验充分性:7.0/10 - 在标准数据集上进行了清晰的对比和消融实验,数据可信。但缺乏在更多样化数据集(如带噪、多语言)上的验证,也缺少与当时最先进(SOTA)语音编解码器的直接数值对比表格。 实用价值:8.0/10 - 针对卫星通信、水下通信等真实且严苛的场景,目标明确(提升可懂度),效果实在(WER显著降低),具有很高的潜在实用价值。 灌水程度:2.0/10(越低越好) - 论文聚焦于一个具体问题,方法描述清晰,实验直接支撑论点,没有明显的冗余或夸大表述,内容扎实。 🔗 开源详情 论文中未提及任何关于代码、模型权重或数据集的开源计划。 因此,目前无法获取其实现。 ...

2026-04-21

语音/音频论文速递 2026-04-21

语音/音频论文速递 2026-04-21 共分析 34 篇论文 ⚡ 今日概览 📥 抓取 34 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 模型评估 13篇 █████████████ 基准测试 9篇 █████████ 音频大模型 8篇 ████████ 数据集 7篇 ███████ 多语言 7篇 ███████ 多模态模型 5篇 █████ 强化学习 5篇 █████ 语音对话系统 4篇 ████ 📊 论文评分排行榜(34 篇,按分数降序) 排名 论文 评分 🥇 FreezeEmpath: Efficient Training for Empathetic Spoken 10.0分 🥈 Audio-DeepThinker: Progressive Reasoning-Aware Reinforc 9.5分 🥉 VoxSafeBench: Not Just What Is Said, but Who, How, and 9.5分 4 Benign Fine-Tuning Breaks Safety Alignment in Audio LLM 9.0分 5 Prosody as Supervision: Bridging the Non-Verbal–Verbal 9.0分 6 Anonymization, Not Elimination: Utility-Preserved Speec 8.5分 7 MimicLM: Zero-Shot Voice Imitation through Autoregressi 8.5分 8 ArtifactNet: Detecting AI-Generated Music via Forensic 8.5分 9 Audio-Cogito: Towards Deep Audio Reasoning in Large Aud 8.5分 10 LLM-Codec: Neural Audio Codec Meets Language Model Obje 8.5分 11 NIM4-ASR: Towards Efficient, Robust, and Customizable R 8.5分 12 Video-Robin: Autoregressive Diffusion Planning for Inte 8.0分 13 A state-space representation of the boundary integral e 8.0分 14 AVRT: Audio-Visual Reasoning Transfer through Single-Mo 8.0分 15 MoVE: Translating Laughter and Tears via Mixture of Voc 8.0分 16 SELF-EMO: Emotional Self-Evolution from Recognition to 8.0分 17 BhashaSutra: A Task-Centric Unified Survey of Indian NL 8.0分 18 MINT-Bench: A Comprehensive Multilingual Benchmark for 8.0分 19 ICLAD: In-Context Learning with Comparison-Guidance for 7.5分 20 Still Between Us? Evaluating and Improving Voice Assist 7.5分 21 Where Do Self-Supervised Speech Models Become Unfair? 7.5分 22 Neural Encoding Detection is Not All You Need for Synth 7.5分 23 Omni-Embed-Audio: Leveraging Multimodal LLMs for Robust 7.5分 24 Latent Fourier Transform 7.5分 25 Hard to Be Heard: Phoneme-Level ASR Analysis of Phonolo 7.5分 26 VIBE: Voice-Induced open-ended Bias Evaluation for Larg 7.5分 27 Aligning Language Models for Lyric-to-Melody Generation 7.5分 28 ClariCodec: Optimising Neural Speech Codes for 200bps C 7.0分 29 From Reactive to Proactive: Assessing the Proactivity o 7.0分 30 A novel LSTM music generator based on the fractional ti 6.5分 31 Incremental learning for audio classification with Hebb 6.5分 32 Coexisting Tempo Traditions in Beethoven’s Piano and Ce 6.0分 33 FLiP: Towards understanding and interpreting multimodal 5.5分 34 HCFD: A Benchmark for Audio Deepfake Detection in Healt 5.0分 📋 论文列表 🥇 FreezeEmpath: Efficient Training for Empathetic Spoken Chatbots with Frozen LLMs 🔥 10.0分 | #语音对话系统 #多模态模型 #迁移学习 #语音情感识别 | arxiv ...

2026-04-21

NaijaS2ST: A Multi-Accent Benchmark for Speech-to-Speech Translation in Low-Resource Nigerian Languages

📄 NaijaS2ST: A Multi-Accent Benchmark for Speech-to-Speech Translation in Low-Resource Nigerian Languages #语音翻译 #音频大模型 #低资源 #基准测试 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Marie Maltais (Mila - Quebec AI Institute, McGill University) 通讯作者:David Ifeoluwa Adelani (Mila - Quebec AI Institute, McGill University, Canada CIFAR AI Chair) (根据作者列表末尾和机构推断) 其他作者: Yejin Jeon (Mila - Quebec AI Institute, McGill University) Min Ma (Google DeepMind) Shamsuddeen Hassan Muhammad (Hausa NLP, Imperial College London) Idris Abdulmumin (Hausa NLP, University of Pretoria) Maryam Ibrahim Mukhtar (Hausa NLP) Daud Abolade (Masakhane NLP) Joel Okepefi, Johnson Sewedo (Naija Wikipedia Community) 💡 毒舌点评 亮点:这篇论文是“数据正义”的典范,为长期被忽视的非洲语言搭建了一个坚实、多口音的语音翻译擂台,并拉来了所有主流方法(级联、端到端、AudioLLM)进行了一场公开、细致的比武大会,数据收集流程堪称教科书级别。槽点:创新主要集中在数据构建和基准测试本身,模型方法上基本是“拿来主义”进行评测,缺乏针对低资源场景的原创性模型设计或训练策略突破,读起来有点像一份豪华版的数据收集与模型测评报告。 ...

2026-04-20

语音/音频论文速递 2026-04-20

语音/音频论文速递 2026-04-20 共分析 24 篇论文 ⚡ 今日概览 📥 抓取 24 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 基准测试 6篇 ██████ 多模态模型 5篇 █████ 语音对话系统 4篇 ████ 大语言模型 4篇 ████ 多语言 4篇 ████ 数据集 4篇 ████ 跨模态 3篇 ███ 模型评估 3篇 ███ 📊 论文评分排行榜(24 篇,按分数降序) 排名 论文 评分 🥇 Qwen3.5-Omni Technical Report 9.5分 🥈 Beyond Monologue: Interactive Talking-Listening Avatar 9.0分 🥉 MoshiRAG: Asynchronous Knowledge Retrieval for Full-Dup 8.5分 4 Generalizable Audio-Visual Navigation via Binaural Diff 8.5分 5 Hierarchical Codec Diffusion for Video-to-Speech Genera 8.5分 6 VoxMind: An End-to-End Agentic Spoken Dialogue System 8.5分 7 ArtifactNet: Detecting AI-Generated Music via Forensic 8.0分 8 Full-Duplex-Bench-v3: Benchmarking Tool Use for Full-Du 8.0分 9 ActorMind: Emulating Human Actor Reasoning for Speech R 8.0分 10 Elucidating the SNR-t Bias of Diffusion Probabilistic M 8.0分 11 HARNESS: Lightweight Distilled Arabic Speech Foundation 7.5分 12 NaijaS2ST: A Multi-Accent Benchmark for Speech-to-Speec 7.5分 13 NVBench: A Benchmark for Speech Synthesis with Non-Verb 7.5分 14 AST: Adaptive, Seamless, and Training-Free Precise Spee 7.5分 15 Temporal Contrastive Decoding: A Training-Free Method f 7.5分 16 Joint-Centric Dual Contrastive Alignment with Structure 7.5分 17 Discrete Token Modeling for Multi-Stem Music Source Sep 7.0分 18 Spatial-Aware Conditioned Fusion for Audio-Visual Navig 7.0分 19 BlasBench: An Open Benchmark for Irish Speech Recogniti 7.0分 20 TinyMU: A Compact Audio-Language Model for Music Unders 6.5分 21 Interactive ASR: Towards Human-Like Interaction and Sem 6.5分 22 PS-TTS: Phonetic Synchronization in Text-to-Speech for 6.0分 23 MUSCAT: MUltilingual, SCientific ConversATion Benchmark 6.0分 24 The Acoustic Camouflage Phenomenon: Re-evaluating Speec 2.5分 📋 论文列表 🥇 Qwen3.5-Omni Technical Report 🔥 9.5分 | #语音对话系统, #音频大模型, #多模态模型, #预训练, | arxiv ...

2026-04-20

Few-Shot and Pseudo-Label Guided Speech Quality Evaluation with Large Language Models

📄 Few-Shot and Pseudo-Label Guided Speech Quality Evaluation with Large Language Models #音频理解 #大语言模型 #少样本 #低资源 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Ryandhimas E. Zezario(推断为台湾中央研究院资讯科学研究所,根据论文[23]引用及常见合作模式) 通讯作者:Hsin-Min Wang(台湾中央研究院资讯科学研究所),Yu Tsao(台湾中央研究院资讯科学研究所) 其他作者:Dyah A. M. G. Wisnu(印度尼西亚玛琅国立大学电气工程系),Szu-Wei Fu(台湾中央研究院资讯科学研究所),Sabato Marco Siniscalchi(意大利卡塔尼亚大学电子工程系) (注:论文HTML全文未明确列出所有作者的具体机构,以上信息根据论文引用格式、常见合作网络及作者邮箱域名推断得出。) 💡 毒舌点评 亮点在于巧妙地将大语言模型(LLM)定位为“元评估器”,通过整合轻量级声学特征和现有模型的伪标签(DNSMOS, VQScore),而非直接处理原始音频,规避了LLM在音频理解上的短板,思路颇具巧思。槽点则是实验数据集过于单一(仅VoiceBank-DEMAND),且在“全样本评估”中少样本版本性能反而下降,暴露出其方法对示例选择的高度敏感性,结论的普适性有待商榷,有“为了用LLM而用LLM”之嫌。 📌 核心摘要 本文旨在解决非侵入式语音质量评估在标注数据有限场景下的性能瓶颈。作者提出了GatherMOS框架,其核心是将大语言模型(如GPT-5)作为一个元评估器,通过精心设计的文本提示,融合多类异构信号:包括手工声学描述符(如RMS、ZCR、MFCC统计量)和来自轻量级模型DNSMOS与VQScore的伪标签。该框架支持零样本和少样本两种推理模式。实验表明,在VoiceBank-DEMAND数据集上,零样本GatherMOS已优于基线方法,而精心匹配的少样本引导能带来显著提升(在子集上SRCC达0.8473)。然而,当少样本示例与测试集分布不匹配时,性能会下降,揭示了其泛化性挑战。该研究证明了利用LLM聚合弱信号以进行可靠质量预测的可行性,为低资源场景下的语音质量评估提供了新思路。 🏗️ 模型架构 GatherMOS并非一个从头训练的模型,而是一个推理框架,其核心是利用预训练LLM的上下文学习能力。整体架构和流程如下: 输入:一段原始语音波形 x。 特征与伪标签提取(并行进行): 手工声学描述符提取器:从 x 中提取一系列低级特征,包括: 时域能量:RMS(均方根)。 频域/噪声相关:ZCR(过零率)。 信号完整性:是否削波(Clipping)、时长(Duration)。 频谱包络:13维MFCC的帧平均值。 频谱分布:梅尔频谱图的每-bin均值和方差、全局最大/最小值。 伪标签生成器(冻结): DNSMOS:输入语音,输出一个1到5之间的连续分数 s_DNS,代表感知质量。 VQScore:输入语音,输出一个0到1之间的分数 s_VQ,代表语音质量。 输入序列化与提示构建:将所有提取的描述符 {d_i}、伪标签 s_DNS 和 s_VQ,以及针对LLM的指令(例如:“您是语音质量评估专家…请估计分数…”),共同组织成一个结构化的文本提示(Prompt)。对于少样本版本,还会在提示中加入K个“支持样本”(few-shot examples),每个样本包含其特征、伪标签和对应的真实MOS分数。 LLM推理:将构建好的文本提示输入给大型语言模型(论文中为GPT-5)。LLM根据其内置的推理能力,对提示中的所有信息进行综合分析、权衡和“推理”。 输出:LLM生成两部分文本输出: 主输出:预测的连续MOS分数 ŝ。 辅助输出:解释性属性 a,如噪声水平、是否削波、混响程度以及一段解释性文字,说明其预测依据。 关键设计选择理由: ...

2026-04-19

语音/音频论文速递 2026-04-19

语音/音频论文速递 2026-04-19 共分析 42 篇论文 ⚡ 今日概览 📥 抓取 42 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #音频理解 12篇 ████████████ #基准测试 10篇 ██████████ #音频大模型 9篇 █████████ #多模态模型 7篇 ███████ #信号处理 6篇 ██████ #强化学习 6篇 ██████ #自监督学习 6篇 ██████ #大语言模型 5篇 █████ 📊 论文评分排行榜(42 篇,按分数降序) 排名 论文 评分 🥇 ControlFoley: Unified and Controllable Video-to-Audio G 9.2分 🥈 ClariCodec: Optimising Neural Speech Codes for 200bps C 9.0分 🥉 X-VC: Zero-shot Streaming Voice Conversion in Codec Spa 9.0分 4 Why Your Tokenizer Fails in Information Fusion: A Timin 9.0分 5 Hijacking Large Audio-Language Models via Context-Agnos 8.8分 6 UniPASE: A Generative Model for Universal Speech Enhanc 8.5分 7 VoxSafeBench: Not Just What Is Said, but Who, How, and 8.5分 8 Who is Speaking or Who is Depressed? A Controlled Study 8.5分 9 ProSDD: Learning Prosodic Representations for Speech De 8.5分 10 MoshiRAG: Asynchronous Knowledge Retrieval for Full-Dup 8.5分 11 Four Decades of Digital Waveguides 8.5分 12 Audio-Cogito: Towards Deep Audio Reasoning in Large Aud 8.5分 13 An Ultra-Low Latency, End-to-End Streaming Speech Synth 8.5分 14 Listen, Pause, and Reason: Toward Perception-Grounded H 8.5分 15 Geo2Sound: A Scalable Geo-Aligned Framework for Soundsc 8.5分 16 SpotSound: Enhancing Large Audio-Language Models with F 8.5分 17 Beyond Transcription: Unified Audio Schema for Percepti 8.5分 18 CoSyncDiT: Cognitive Synchronous Diffusion Transformer 8.5分 19 Diffusion Language Models for Speech Recognition 8.5分 20 WavAlign: Enhancing Intelligence and Expressiveness in 8.5分 21 AVID: A Benchmark for Omni-Modal Audio-Visual Inconsist 8.5分 22 SpeakerRPL v2: Robust Open-set Speaker Identification t 8.3分 23 Towards Fine-grained Temporal Perception: Post-Training 8.3分 24 Room compensation for loudspeaker reproduction using a 8.2分 25 StreamMark: A Deep Learning-Based Semi-Fragile Audio Wa 8.2分 26 From Reactive to Proactive: Assessing the Proactivity o 8.2分 27 Elastic Net Regularization and Gabor Dictionary for Cla 8.2分 28 Sky-Ear: An Unmanned Aerial Vehicle-Enabled Victim Soun 8.0分 29 Contextual Biasing for ASR in Speech LLM with Common Wo 8.0分 30 A Manual Bar-by-Bar Tempo Measurement Protocol for Poly 7.8分 31 Classical Machine Learning Baselines for Deepfake Audio 7.8分 32 Adaptive Test-Time Scaling for Zero-Shot Respiratory Au 7.8分 33 Dual-Axis Generative Reward Model Toward Semantic and T 7.8分 34 Tora3: Trajectory-Guided Audio-Video Generation with Ph 7.8分 35 Few-Shot and Pseudo-Label Guided Speech Quality Evaluat 7.5分 36 VoxEffects: A Speech-Oriented Audio Effects Dataset and 7.5分 37 TokenSE: a Mamba-based discrete token speech enhancemen 7.5分 38 Audio Source Separation in Reverberant Environments usi 7.5分 39 On the Distillation Loss Functions of Speech VAE for Un 7.5分 40 Listening Deepfake Detection: A New Perspective Beyond 7.5分 41 Comparison of window shapes and lengths in short-time f 6.5分 42 Transformer Based Machine Fault Detection From Audio In 6.5分 📋 论文列表 🥇 ControlFoley: Unified and Controllable Video-to-Audio Generation with Cross-Modal Conflict Handling 🔥 9.2分 | #音频生成 #多模态模型 #扩散模型 #基准测试 | arxiv ...

2026-04-19

语音/音频论文速递 2026-04-18

语音/音频论文速递 2026-04-18 共分析 39 篇论文 ⚡ 今日概览 📥 抓取 39 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #基准测试 11篇 ███████████ #音频理解 10篇 ██████████ #数据集 7篇 ███████ #音频大模型 7篇 ███████ #大语言模型 6篇 ██████ #信号处理 6篇 ██████ #音频生成 5篇 █████ #音频分类 5篇 █████ 🏆 高分论文 TOP 10 排名 论文 评分 🥇 StreamMark: A Deep Learning-Based Semi-Fragile Audio Wa 9.2分 🥈 A Manual Bar-by-Bar Tempo Measurement Protocol for Poly 8.5分 🥉 ClariCodec: Optimising Neural Speech Codes for 200bps C 8.5分 4 UniPASE: A Generative Model for Universal Speech Enhanc 8.5分 5 Who is Speaking or Who is Depressed? A Controlled Study 8.5分 6 SpeakerRPL v2: Robust Open-set Speaker Identification t 8.5分 7 ProSDD: Learning Prosodic Representations for Speech De 8.5分 8 MoshiRAG: Asynchronous Knowledge Retrieval for Full-Dup 8.5分 9 X-VC: Zero-shot Streaming Voice Conversion in Codec Spa 8.5分 10 An Ultra-Low Latency, End-to-End Streaming Speech Synth 8.5分 📄 StreamMark: A Deep Learning-Based Semi-Fragile Audio Watermarking for Proactive Deepfake Detection #音频安全 #音频深度伪造检测 #语音伪造检测 #基准测试 ...

2026-04-18