FLiP: Towards understanding and interpreting multimodal multilingual sentence embeddings

📄 FLiP: Towards understanding and interpreting multimodal multilingual sentence embeddings #模型评估 #线性探测 #多模态 #多语言 #跨模态 ✅ 7.5/10 | 前50% | #模型评估 | #线性探测 | #多模态 #多语言 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Santosh Kesiraju (Speech@FIT, Brno University of Technology, Czechia) 通讯作者:未说明 作者列表: Santosh Kesiraju (Speech@FIT, Brno University of Technology, Czechia) Bolaji Yusuf (Speech@FIT, Brno University of Technology, Czechia) Šimon Sedláček (Speech@FIT, Brno University of Technology, Czechia) Oldřich Plchot (Speech@FIT, Brno University of Technology, Czechia) Petr Schwarz (Speech@FIT, Brno University of Technology, Czechia) 💡 毒舌点评 论文提出的FLiP模型在“从嵌入中恢复词汇内容”这个诊断任务上取得了扎实且显著的改进,证明了因子化和隐式正则化的有效性。然而,其核心价值在于作为一个诊断工具,而非解决一个直接的应用问题,因此其影响力和读者面相对受限,更像是一个为嵌入模型开发者提供的“内窥镜”。 ...

2026-04-23

Indic-CodecFake meets SATYAM: Towards Detecting Neural Audio Codec Synthesized Speech Deepfakes in Indic Languages

📄 Indic-CodecFake meets SATYAM: Towards Detecting Neural Audio Codec Synthesized Speech Deepfakes in Indic Languages #音频深度伪造检测 #预训练 #多语言 #语音大模型 🔥 8.5/10 | 前25% | #音频深度伪造检测 | #预训练 | #多语言 #语音大模型 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Girish(UPES, India)与 Mohd Mujtaba Akhtar(Veer Bahadur Singh Purvanchal University, India)为共同第一作者 通讯作者:Orchid Chetia Phukan(IIIT-Delhi, India),邮箱:orchidp@iiitd.ac.in 作者列表: Girish(UPES, India) Mohd Mujtaba Akhtar(Veer Bahadur Singh Purvanchal University, India) Orchid Chetia Phukan(IIIT-Delhi, India) Arun Balaji Buduru(IIIT-Delhi, India) 💡 毒舌点评 这篇论文在填补印度语言CodecFake检测空白方面做得非常扎实,SATYAM模型的双曲空间对齐设计也颇具巧思,为多模态融合提供了新思路。然而,其所有“实战”演练都发生在精心构造的合成数据集上,缺乏对真实世界中可能遇到的噪声、信道失真、对抗攻击等复杂因素的评估,这使得其宣称的“鲁棒性”仍停留在实验室阶段。 ...

2026-04-23

Qwen3.5-Omni Technical Report

📄 Qwen3.5-Omni Technical Report #多模态模型 #语音对话系统 #多语言 #语音合成 🔥 8.5/10 | 前25% | #语音对话系统 | #多模态模型 | #多语言 #语音合成 | arxiv 学术质量 6.5/7 | 选题价值 1.8/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:未说明 通讯作者:未说明 作者列表: Bing Han (未说明) Baosong Yang (未说明) Bin Zhang (未说明) Bo Zheng (未说明) Dayiheng Liu (未说明) Fan Zhou (未说明) Hongkun Hao (未说明) Hangrui Hu (未说明) Jin Xu (未说明) Jianxin Yang (未说明) Jingren Zhou (未说明) Keqin Chen (未说明) Le Yu (未说明) Mingkun Yang (未说明) Peng Wang (未说明) Pei Zhang (未说明) Qize Yang (未说明) Rui Men (未说明) Ruiyang Xu (未说明) Shuai Bai (未说明) Sibo Song (未说明) Ting He (未说明) Xize Cheng (未说明) Xingzhang Ren (未说明) Xian Shi (未说明) Xiong Wang (未说明) Xinyu Zhang (未说明) Xinfa Zhu (未说明) Yunfei Chu (未说明) Yuanjun Lv (未说明) Yuchong Sun (未说明) Yongqi Wang (未说明) Yuxuan Wang (未说明) Yang Zhang (未说明) Zhifang Guo (未说明) Zishan Guo (未说明) Ziyang Ma (未说明) (以及数十位贡献者,论文中未提供其具体机构信息) 💡 毒舌点评 亮点:工程整合能力极强,在215个涵盖理解、推理和交互的音频/音视觉基准上全面达到SOTA,尤其在语音对话和多语言识别上超越了Gemini-3.1 Pro,展现了扎实的“刷榜”实力。短板:作为技术报告,其创新性主要体现在将现有技术(MoE、ARIA、长上下文)进行大规模组合与优化,而非提出颠覆性的新范式,读起来更像一份详尽的“产品说明书”而非“科学发现”。 ...

2026-04-23

SpeechParaling-Bench: A Comprehensive Benchmark for Paralinguistic-Aware Speech Generation

📄 SpeechParaling-Bench: A Comprehensive Benchmark for Paralinguistic-Aware Speech Generation #基准测试 #语音大模型 #语音合成 #多语言 #模型评估 ✅ 7.5/10 | 前25% | #基准测试 | #模型评估 | #语音大模型 #语音合成 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ruohan Liu (南京大学) 通讯作者:Chaoyou Fu (南京大学) 作者列表: Ruohan Liu (南京大学) Shukang Yin (南京大学) Tao Wang (南京大学) Dong Zhang (小米) Weiji Zhuang (小米) Shuhuai Ren (小米) Ran He (南京大学) Caifeng Shan (南京大学) Chaoyou Fu (南京大学) 💡 毒舌点评 亮点:这篇论文把“副语言生成评估”这个模糊地带彻底标准化了,从不到50个特征扩展到100多个,还设计了从静态控制到动态变化再到情境适应的递进式任务,评估流水线也用上了“成对比较”来对抗主观性,工程上相当完备。短板:数据全靠合成,用TTS生成的“用户查询”和真实人类说话的副语言信息可能差了十万八千里,这导致整个基准测试的生态位有点尴尬——它测的是模型对“合成指令”的服从度,而非对“真实人类语音”的理解力。 ...

2026-04-23

Tadabur: A Large-Scale Quran Audio Dataset

📄 Tadabur: A Large-Scale Quran Audio Dataset #语音识别 #数据集 #领域适应 #多语言 ✅ 7.5/10 | 前25% | #语音识别 | #数据集 | #领域适应 #多语言 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Faisal Alherran(未说明具体机构,仅标注地点为Riyadh, Saudi Arabia) 通讯作者:Faisal Alherran(alherranfaisal@gmail.com) 作者列表: Faisal Alherran(未说明具体机构) 💡 毒舌点评 亮点:数据集规模(1400+小时,600+诵读者)和多样性堪称古兰经语音领域的“ImageNet”,其自动化处理流水线(融合LLM、ASR、语义对齐)设计得相当完整且有效,为构建垂直领域大规模数据集提供了可借鉴的范本。 短板:本质上是数据集工程论文,技术深度有限,核心流水线是现有技术的巧妙组合而非原创算法;对“古兰经”这一特殊领域的语音特性(如诵读规则tajwīd)如何影响模型性能的分析可以更深入。 📌 核心摘要 问题:现有的古兰经语音数据集在规模、诵读者多样性、音频质量和标注深度上存在严重不足,限制了古兰经ASR、诵读者识别等任务的研究进展。 方法核心:提出Tadabur数据集及其构建流水线。流水线核心是“古兰经经文对齐模块”(AAM),它结合WhisperX进行初步转录,再利用SILMA嵌入模型进行语义相似度匹配,将音频精确对齐到古兰经原文,并辅以LLM元数据提取、ASR内容过滤和音频去重。 新意:首次构建了超过1400小时、涵盖600多位不同诵读者的古兰经语音数据集,规模和多样性远超前人。同时,提出了一套完整的、可扩展的自动化数据处理与质量控制流水线。 主要结果:在AAM的评估中,使用SILMA嵌入和微调过的Whisper模型(Tadabur fine-tuned)达到了96.63%的平均对齐覆盖率。在下游ASR评估中,针对古兰经微调的Whisper-Quran模型(74M参数)取得了最佳的WER(8.7%)和CER(6.5%),显著优于更大的通用模型(如Cohere Transcribe的11.2% WER)。 实际意义:为古兰经语音研究提供了前所未有的高质量、大规模基准数据集,有助于推动该领域ASR模型的性能提升,并支持诵读风格、韵律等更深入的分析。 主要局限性:部分诵读者的音频覆盖不完整;自动生成的词级时间戳精度有待提高,因为对齐模型并非专为古兰经诵读设计。 🏗️ 模型架构 本文的核心贡献是数据集构建流水线,而非一个单一的端到端模型。该流水线是一个多阶段的自动化系统,主要包含以下组件: 数据收集与预处理:从公开平台收集长篇古兰经诵读音频,统一格式和采样率。 元数据提取:使用Gemini 2.5 Flash大语言模型,从音频文件的标题、描述等非结构化文本中提取标准化的元数据(如章节名、诵读者身份)。 古兰经经文对齐模块(AAM):流水线的核心。其流程为: 输入:长篇音频。 ASR转录与对齐:使用Whisper Large v3 + WhisperX进行语音识别,获得带时间戳的转录文本。 语义匹配与分割:将WhisperX输出的转录片段与从Quran API获取的古兰经原文经文进行匹配。具体做法是:将原文经文和转录片段分别通过SILMA AI嵌入模型转换为向量,计算余弦相似度,超过阈值则视为匹配成功,并提取对应的时间戳进行初步分割。 诵读边界修正:为确保分割后的音频片段恰好结束于诵读者自然停顿处,使用一个专门的**诵读边界检测模型(recitation-segmenter-v2)**对初步片段进行处理,修正结束点。 数据清洗与策展:包括基于LLM的元数据验证、基于ASR对齐的内容过滤(无法对齐的即为非古兰经内容),以及使用**高效音频Transformer(EAT)**提取音频嵌入进行相似度计算,从而去除重复或近似重复的录音。 输出:最终生成以经文为单位的WAV音频文件及其对应的JSON格式元数据(包含词级时间对齐)。 💡 核心创新点 前所未有的数据集规模与多样性:构建了首个超过1400小时、涵盖600多位诵读者的古兰经语音数据集,在规模和诵读者覆盖面上实现了数量级的提升,为训练鲁棒的领域模型奠定了基础。 端到端的自动化数据处理流水线:设计并实现了一个从原始音频到高质量、带标注数据集的完整自动化流水线,融合了LLM、ASR、语义嵌入和音频分析等多种技术,为构建类似垂直领域数据集提供了范式。 基于语义嵌入的鲁棒对齐方法:在经文对齐环节,创新性地采用语义嵌入(SILMA)代替传统的模糊文本匹配,有效解决了古兰经诵读中音素延长、风格化发音导致的文本匹配失败问题,将对齐覆盖率从86.03%大幅提升至96.63%。 多维度数据质量控制:提出了结合元数据验证、ASR内容过滤和音频嵌入去重的三重策展机制,确保了数据集的纯净度和一致性。 🔬 细节详述 训练数据: 数据集构建数据:来源为公开的古兰经音频发布平台,具体平台名称未在论文中说明。规模为1400+小时,涵盖113个章节(除开端章外),600+诵读者。 下游ASR评估数据:使用Tadabur数据集本身进行评估。 损失函数:未说明。本文不涉及新模型的训练,主要使用现有模型(如Whisper)进行转录和对齐。 训练策略:未说明。论文未详细描述其微调Whisper模型(Tadabur fine-tuned model)的具体训练策略(如学习率、优化器等)。 关键超参数: 对齐阶段:语义相似度阈值未明确给出数值(仅提及“predefined threshold”)。 去重阶段:音频嵌入相似度阈值为0.9。 音频处理:统一为WAV格式和固定采样率(具体数值未说明)。 训练硬件:未说明。 推理细节:未说明。评估时使用标准的WER/CER计算,模型推理设置未提及。 正则化或稳定训练技巧:不适用。 📊 实验结果 流水线对齐质量评估(表1): 最佳配置:SILMA Embedding + Tadabur (Ours) ASR模型,在5位诵读者上平均对齐覆盖率为 96.63%。 对比: 相比模糊文本匹配(Fuzzy Match),平均覆盖率从86.03%提升至96.63%,提升超过10个百分点。 相比未适配领域的Whisper Small模型,在SILMA Embedding下,平均覆盖率从82.57%提升至96.63%。 与另一个领域适配模型Whisper-Quran相比,两者在SILMA Embedding下表现接近(96.63% vs 95.50%)。 下游ASR模型评估(表3): 最佳模型:Whisper-Quran(74M参数),WER为 8.7%,CER为 6.5%。 对比: 显著优于更大的通用多语言模型,如Cohere Transcribe(2B参数,WER 11.2%)、Voxtral Mini(4B参数,WER 15.1%)。 远优于未经领域适配的模型,如MMS 1B(WER 51.1%)和Wav2Vec2 XLSR-53 Arabic(WER 57.4%)。 结论:在古兰经ASR任务上,领域适配(fine-tuning)比模型规模更重要。 数据集规模对比(表2): Tadabur:365,000+片段,600+诵读者,有转录和词级对齐。 SLR132:226,129片段,30诵读者,有转录无词级对齐。 Buraaq:187,080片段,30诵读者,有转录无词级对齐。 ⚖️ 评分理由 学术质量(5.5/7):论文在数据集构建的工程实践上扎实可靠,流水线设计逻辑清晰,实验验证了关键模块的有效性。主要扣分点在于,其核心贡献是数据集和流水线,而非提出新的学术算法,创新性更多体现在应用集成和规模上。 选题价值(1.5/2):古兰经语音处理是一个有明确需求且研究相对不足的领域。Tadabur数据集的发布有望成为该领域的标准基准,推动相关技术发展,价值明确。 开源与复现加成(0.5/1):最大的亮点是开源了大规模数据集。论文也提及了所依赖的开源工具,但未提供构建流水线的完整代码,因此复现加成适中。 🔗 开源详情 代码:论文中提到了GitHub和Hugging Face链接(Github | Huggingface | Tadabur Page),但未在提供的文本中给出具体URL。因此,推测有相关代码或数据页面,但详情未知。 模型权重:论文中未提及公开其微调的Whisper模型(Tadabur fine-tuned model)权重。只提及了评估时使用的开源模型权重(如Whisper-Quran)。 数据集:是,论文明确表示Tadabur数据集是开源的,并提供了获取途径(推测通过Hugging Face)。 Demo:未提及。 复现材料:论文提供了流水线各阶段的详细描述和评估结果,但未提供具体的训练超参数、配置文件或检查点,复现其微调ASR模型存在困难。 论文中引用的开源项目: WhisperX (用于对齐) SILMA AI Embedding Model (用于语义匹配) Efficient Audio Transformer (EAT) (用于去重) Whisper-Quran (用于评估和对比) 其他多个ASR模型(Whisper, MMS, Qwen3-ASR等)用于评估。 论文中未提及开源计划:论文未明确说明其数据处理流水线代码是否会开源。 📸 论文图片 ...

2026-04-23

Utterance-Level Methods for Identifying Reliable ASR-Output for Child Speech

📄 Utterance-Level Methods for Identifying Reliable ASR-Output for Child Speech #语音识别 #模型评估 #儿童语音 #多语言 ✅ 7.5/10 | 前25% | #语音识别 | #模型评估 | #儿童语音 #多语言 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Gus Lathouwers (guslathouwers@gmail.com) 通讯作者:未说明(论文中未明确指定通讯作者,但提供了所有作者邮箱) 作者列表: Gus Lathouwers (Centre for Language Studies, Radboud University, Netherlands) Lingyun Gao (Centre for Language Studies, Radboud University, Netherlands) Catia Cucchiarini (Centre for Language Studies, Radboud University, Netherlands) Helmer Strik (Department of Language and Communication, Radboud University, Netherlands) 💡 毒舌点评 亮点在于方法设计非常务实,针对朗读和对话场景分别提出“与原文匹配”和“LLM分类”两种可解释性强的启发式规则,且“模型一致性过滤”策略能以较低的召回率换取极高的精确率(>97.4%),为自动筛选可靠转录提供了可靠工具。短板是开源精神不足,论文中提到的GitHub链接为无效占位符,且关键的对话文本分割流程(英文CSLU数据)依赖外部标点工具,细节未充分公开,严重影响了结果的可复现性。 ...

2026-04-23

NVBench: A Benchmark for Speech Synthesis with Non-Verbal Vocalizations

📄 NVBench: A Benchmark for Speech Synthesis with Non-Verbal Vocalizations #语音合成 #基准测试 #多语言 #大语言模型 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:刘梦(Liumeng Xue)(南京大学,智能软件与系统实验室) 通讯作者:刘梦(lmxue@nju.edu.cn),郭毅可(Yike Guo)(推测为资深作者) 其他作者: 卞伟真(Weizhen Bian)(南京大学) 潘家浩(Jiahao Pan)(香港科技大学) 王文轩(Wenxuan Wang)(香港中文大学) 任逸林(Yilin Ren)(北京航空航天大学) 康博宇(Boyi Kang)(西北工业大学) 胡敬斌(Jingbin Hu)(上海交通大学) 马子阳(Ziyang Ma)(南京大学) 王帅(Shuai Wang)(南京大学) 钱欣源(Xinyuan Qian)(南京大学) 李宏毅(Hung-yi Lee)(台湾大学) 郭毅可(Yike Guo)(香港科技大学) 💡 毒舌点评 亮点:这是一篇“基建狂魔”式的论文,终于有人把语音合成里那些“嗯嗯啊啊”的非语言声音(NVV)的评估给标准化了,45类分类法和双语数据集做得相当扎实,为后续研究立好了靶子。 槽点:作为基准测试论文,它本身不提出新的合成模型,有点像“只测评不造轮子”,对于追求算法创新的读者来说可能不够“性感”;而且用LLM当裁判,虽然努力控制偏见,但“AI评AI”的可靠性争议依然存在。 📌 核心摘要 这篇论文旨在解决语音合成(TTS)领域中一个关键但被忽视的问题:如何标准化评估系统生成非语言声音(NVV,如笑声、叹息)的能力。作者提出了NVBench,一个包含45类NVV统一分类体系的双语(英/中)基准。其核心方法包括:1)构建了一个每类50例、总计4500例的高质量平衡评估数据集;2)设计了多轴评估协议,将通用语音质量与NVV特有的可控性、放置准确性和感知显著性分离开来;3)综合运用客观指标、人工听测和基于LLM的多评判员评估,对15个代表性的TTS系统(涵盖提示式和标签式控制)进行了全面测评。主要发现表明,NVV的可控性常常与整体语音质量解耦,而低信噪比的口腔音和长时情感性NVV(如哭泣)仍是持续的技术瓶颈。该工作为公平、全面地比较和改进NVV合成能力提供了一个标准化框架。 🏗️ 模型架构 注意:本文并非提出一个新的合成模型,而是提出一个评估基准框架。其核心“架构”是评估流程和数据集构建流程。 整体流程:输入为包含NVV指令的文本(标签式[laugh]或提示式“…said with a laugh”),经过待测TTS系统生成语音,再通过NVBench的评估协议进行多维度分析。 核心组件: NVV分类体系:一个包含6大类(呼吸、喉/生理、笑声谱、哭泣谱、情感发声、口腔/其他)和45个细分类别的结构化树状体系。 数据构建流水线:三阶段流程:a) 从现有双语语音数据集中用LLM挖掘NVV种子;b) 基于分类体系,用LLM按统一模式生成文本-描述对;c) 自动检查与人工审核迭代,确保每类50个高质量样本。 评估协议: 客观指标:包括通用指标(WER/CER, DNSMOS)和NVV特异性指标(针对标签式系统的精确率/召回率/F1, 标准化标签距离NTD;针对提示式系统的CLAP分数)。 主观指标:5分制Likert量表,评估自然度、质量、NVV感知效果(PE)、指令跟随(IF)等。 LLM多评判员评估:使用Gemini 2.5 Pro作为评判员,采用匿名化、随机化、多轮评估等策略,评估指标与主观测试对齐。 数据流:待评估的TTS系统是黑盒,输入是NVBench数据集中的text_with_nvv(标签式)或caption_with_nvv(提示式),输出是合成语音。该语音被送入ASR、质量评估模型、NVV检测器(基于GT约束的Gemini验证)以及人类/LLM评判员,得到多维度分数。 💡 核心创新点 统一的NVV分类与数据集: 是什么:首次提出了一个涵盖45类、覆盖从呼吸到哭泣等广泛NVV的统一分类法,并据此构建了英汉双语平衡评估数据集。 之前:现有系统和数据集支持的NVV类型有限、碎片化、标签不一致,无法进行系统化评估。 效果:为领域提供了共同语言和可复现的测试基础,使跨系统比较成为可能。 解耦的多轴评估协议: 是什么:明确将评估维度拆解为“通用语音质量”和“NVV特定能力”(可控性、放置、显著性)。 之前:评估往往将NVV视为风格的一部分,与语音质量混在一起,难以诊断具体弱点。 效果:能精确揭示系统在哪方面强或弱(如某系统音质好但NVV控制差),指导针对性改进。 面向NVV的客观指标设计: 是什么:为标签式控制设计了基于“地面真值约束验证”的NVV检测方法,并由此计算精确率、召回率、F1和标准化标签距离(NTD)。 之前:缺乏直接评估NVV生成正确性和时间位置准确性的标准客观方法。 效果:实现了可扩展、可量化的NVV可控性评估,与主观感知形成互补。 全面的系统测评与洞察: 是什么:对15个前沿系统(商业与开源,提示式与标签式)进行了大规模测评,揭示了“质量与可控性解耦”、“长时/细微NVV是瓶颈”等关键现象。 之前:缺乏在统一基准下对不同控制范式系统的横向比较。 效果:为研究社区提供了清晰的现状图景和未来研究方向(如提升覆盖度、改善长时NVV建模)。 🔬 细节详述 训练数据:不适用。本文是评估基准,不训练新模型。评估数据集通过三阶段流水线构建,最终包含45类×50例×2语言=4500个高质量NVV实例,源自对InstructTTSEval数据集的挖掘和LLM辅助生成。 损失函数/训练策略:不适用。 关键超参数/训练硬件:不适用。 评估细节: 客观指标:使用Whisper-large-v3(英)和paraformer-zh(中)进行ASR转写。使用DNSMOS P.835预测语音质量。CLAP分数用于提示式系统的语义对齐。对于标签式系统,使用Gemini 2.5 Pro作为验证器,给定合成语音、原文本和目标NVV类型,判断NVV是否存在并插入标记,从而计算位置误差。NTD是匹配样本的位置误差按文本长度归一化后的均值。 主观测试:通过Prolific平台招募97名评分者,对每种语言随机抽取450个样本(每类10个)进行5分制评分。 LLM评估:使用Gemini 2.5 Pro,采用低温采样(0.2)、固定种子、多轮三折评估、匿名化比较等策略以保证稳定性。每个样本由4个独立LLM评判员子集评估。 系统覆盖:评估了7个提示式系统(如Gemini 2.5 Pro/Flash, GPT-4o mini TTS, Qwen3-TTS)和8个标签式系统(如ElevenLabs, ChatTTS, Orpheus TTS, CosyVoice 2)。 📊 实验结果 主要指标对比(摘要): 提示式系统(英语): 最佳质量/自然度:Gemini 2.5 Pro (主观自然度4.07, DNSMOS OVRL 4.30)。 最佳可控性(NVV IF):Gemini 2.5 Pro (主观2.74)。 最佳语义对齐(CLAP):Qwen3-TTS (0.45)。 最佳客观质量(DNSMOS):GPT-4o mini TTS (OVRL 4.14)。 标签式系统(英语): 最佳综合(主观):ElevenLabs (自然度4.60, 质量4.71, NVV PE 3.92, NVV Accuracy 4.21)。 最佳NVV正确性(客观F1):Orpheus TTS (0.728)。 最高覆盖度:ElevenLabs (0.27), Dia (0.29)。 关键发现: 质量与可控性解耦:例如,CosyVoice 2在中文上主观质量分很高(4.35),但NVV准确性(1.65)和显著性(1.56)较低。Gemini 2.5 Flash的WER很差(因生成额外内容),但主观自然度很高。 NVV类型难度差异大:热图分析显示,笑声、咳嗽等突发性NVV普遍得分较高;而口腔音(如tsk, lipsmack)和长时情感音(如crying, sobbing)在所有系统上得分都低。 控制范式差异:标签式系统覆盖度有限但控制精确;提示式系统理论覆盖所有类型但实现不稳定,易出现内容边界问题。 消融实验(有无显式NVV控制): 对比了Gemini 2.5 Pro(提示式)和ElevenLabs(标签式)在有无NVV指令下的输出。 主观结果:ElevenLabs在启用NVV后,自然度、质量和表达力均提升(CMOS为正)。Gemini 2.5 Pro在启用NVV后,表达力提升不明显,且自然度和质量有所下降(CMOS为负)。 客观结果:启用NVV后,所有系统的WER/CER均上升,表明标准ASR和质量评估器对NVV不友好。 LLM评判 vs 人类评判:LLM评判的排名趋势与人类主观测试大体一致(如ElevenLabs在标签式中领先),但具体分数存在差异,表明LLM评估可作为有效补充但不能完全替代人类。 ⚖️ 评分理由 创新性:7/10。创新性主要体现在系统工程和评估框架上:构建了首个全面的NVV分类与数据集,并设计了多轴评估协议。这不是算法模型的突破,而是领域基础设施的重要创新。 实验充分性:9/10。实验设计极为充分。数据集构建流程严谨;评估维度全面(客观、主观、LLM);对比系统数量多、种类全(15个);分析深入,包含消融、热图、跨语言对比等。数据详实,结论可信。 实用价值:8/10。对语音合成领域有很高的实用价值。为NVV合成这一模糊的评估目标提供了清晰、可操作的度量标准,能直接指导系统开发和比较。开源数据集和代码进一步放大了其价值。 灌水程度:2/10。论文内容紧凑,直指问题核心。摘要、方法、实验、分析环环相扣,没有明显的冗余内容或夸大表述。所有承诺的评估都在实验部分得到落实。 🔗 开源详情 代码:已开源。论文提供了GitHub链接:https://github.com/lmxue/NVBench。代码应包含数据集构建脚本、评估指标计算代码等。 模型权重:不适用。本文不发布新模型,而是评估现有模型。 数据集:已开源。论文明确指出数据集可通过项目主页获取:https://lmxue.github.io/NVBench/。包含4500个(英汉各2250)经过验证的NVV实例。 预训练权重:不适用。 在线 Demo:论文中未提及在线Demo。 引用的开源项目:论文评估了多个开源TTS系统(如ChatTTS, Bark, CosyVoice 2等),并使用了Whisper、CLAP、DNSMOS等开源工具进行评估。 🖼️ 图片与表格 图1: NVBench概览图 | 保留: 是 - 理由:清晰展示了基准的整体流程,包括数据集(分类法+双语集)、两种控制方式(提示式、标签式)、待测TTS系统、以及多轴评估协议(客观、主观、LLM),是理解论文工作的核心示意图。 图2: 按NVV类型划分的感知效果热图(英语) | 保留: 是 - 理由:直观展示了不同系统在45类NVV上的感知效果(PE)得分,清晰揭示了系统间差异、类型难度差异(如笑声易、口腔音难)以及标签式系统的覆盖度缺口,是核心结果图。 图3: 按NVV类型划分的感知效果热图(中文) | 保留: 是 - 理由:与图2对应,展示了中文评估结果,体现了基准的双语评估能力和跨语言发现的一致性。 表1: NVV分类体系 | 保留: 是 - 理由:列出了完整的45类NVV及其所属的6个大类,是本文的核心贡献之一,必须保留以明确评估范围。 表2: 评测的TTS系统及数据集详情 | ���留: 是 - 理由:详细列出了15个被测系统和6个参考数据集支持的NVV类型及数量,是理解评测范围和对比基线的关键信息。 表3: 客观指标结果 | 保留: 是 - 理由:提供了所有系统在WER/CER、DNSMOS、CLAP、覆盖率、精确率/召回率/F1、NTD等客观指标上的详细数值,是进行量化对比的基础。 表4: 主观听测结果(均值±标准差) | 保留: 是 - 理由:提供了所有系统在自然度、质量、NVV感知效果等主观指标上的详细评分,是评估系统实际听感的关键数据。 表5: LLM多评判员评估结果(与ElevenLabs的对比分数) | 保留: 是 - 理由:展示了使用LLM作为评判员的评估结果,体现了这种新型评估方法的可行性与趋势,是方法的重要组成部分。 表6: 有无NVV控制的CMOS对比结果 | 保留: 是 - 理由:展示了消融实验的结果,直接证明了显式NVV控制对感知质量的影响,支持了论文的核心发现之一(控制范式差异)。 📸 论文图片 ...

2026-04-22

Tadabur: A Large-Scale Quran Audio Dataset

📄 Tadabur: A Large-Scale Quran Audio Dataset #语音识别 #领域适应 #数据集 #多语言 ✅ 评分:7.0/10 | arxiv 👥 作者与机构 第一作者:Faisal Alherran (利雅得,沙特阿拉伯 - alherranfaisal@gmail.com) 通讯作者:Faisal Alherran (同上) 其他作者:无。论文仅列出一位作者。 💡 毒舌点评 亮点:这论文最实在的地方就是“大力出奇迹”,用一套组合拳(LLM+Whisper+Embedding)硬生生把散落在网络各处的古兰经朗诵音频,整合成了一个规模空前、标注精细的“数据航母”,直接把该领域的数据门槛拉高了好几个档次。槽点:方法上更像是“系统集成创新”,用的都是现成的明星模型(Whisper, Gemini),自己炼的“新丹”(Tadabur fine-tuned ASR)效果提升也有限。说白了,这是一篇出色的“数据工程”报告,而非“算法突破”论文。 📌 核心摘要 本文旨在解决古兰经语音研究领域缺乏大规模、多样化、细粒度标注数据集的问题。为此,作者提出了Tadabur数据集及其自动化构建流水线。该流水线首先从公共平台收集音频,并利用大语言模型(Gemini)从非结构化文本中提取标准化元数据(如章节、朗诵者)。核心步骤是Ayah Alignment Module (AAM),它利用Whisper/WhisperX进行语音识别和词级对齐,再通过SILMA嵌入模型的语义相似度匹配,将转录文本与《古兰经》标准文本进行对齐,从而实现从长录音中精准分割出经文(Ayah)级别的音频片段。最后,通过基于ASR的内容验证和基于音频嵌入的去重进行数据清洗。最终构建的Tadabur数据集包含超过1400小时音频,来自600多位不同朗诵者,提供了词级时间戳和结构化元数据。实验评估表明,所选的语义对齐方法和领域适配ASR模型能达到96.63%的对齐覆盖率。该数据集为古兰经语音识别、朗诵风格分析等研究提供了重要基础资源。 🏗️ 模型架构 本文的核心“架构”并非一个端到端的神经网络模型,而是一个多阶段、模块化的数据处理流水线。其整体流程如下: 输入:从网络收集的、包含长篇朗诵(整章或整卷)的原始音频文件及其伴随的非结构化文本描述(标题、标签等)。 元数据提取与过滤: 组件:大语言模型(Gemini 2.5 Flash)。 功能:接收文本描述,判断是否为有效的古兰经朗诵,并提取结构化元数据(章节名、朗诵者身份)。 输出:过滤后的有效音频文件及其标准化元数据。 语音识别与词级对齐: 组件:Whisper Large v3 + WhisperX。 功能:对音频进行语音识别,生成带词级时间戳的转录文本。 输出:包含词及起止时间戳的转录结果。 经文级对齐与分割 (核心 - Ayah Alignment Module, AAM): 子模块1:语义匹配: 输入:WhisperX转录文本片段、来自Quran API的标准经文文本。 处理:分别使用SILMA嵌入模型生成文本片段和标准经文的向量,计算余弦相似度。超过阈值则视为匹配成功。 输出:匹配的经文及其在音频中的粗略起止时间。 子模块2:朗诵边界精修: 输入:粗略分割的音频片段。 处理:使用一个专门的“recitation-segmenter-v2”模型检测朗诵自然停顿点。为防止截断,在粗略结束点后附加5秒缓冲区,再进行边界检测,最后将检测到的自然结束点与WhisperX时间戳调和。 输出:精确的、以自然停顿为终点的单条经文音频片段。 数据清洗与去重: 组件:EAT(高效音频Transformer)模型、并查集(Union-Find)数据结构。 功能:对同一朗诵者同一经文的多个录音,提取音频嵌入并计算相似度,超过阈值(0.9)视为重复,通过图算法聚类后每组仅保留一个代表。 输出:去重后的最终数据集。 输出:成对的(音频文件, JSON元数据文件)。JSON中包含经文文本、朗诵者、章节以及词级时间戳等结构化信息。 💡 核心创新点 面向古兰经的大规模自动化数据构建流水线:这是最主要的贡献。论文提出并实现了一个端到端的、从数据收集、清洗、标注到最终发布的完整自动化框架,解决了该领域数据稀缺且构建困难的核心问题。 基于语义嵌入的经文对齐方法:相比传统的模糊文本匹配(Fuzzy Matching),采用SILMA嵌入模型进行语义相似度计算,能更好地应对古兰经朗诵中因音律、延长音导致的转录文本与标准文本在表面形式上的差异,将对齐覆盖率从86%提升至96.6%。 朗诵边界感知的精细分割:在初步对齐后,引入专门的朗诵边界检测模型进行后处理,确保分割出的音频片段以朗诵者的自然停顿结束,而非机械地截断于识别词的结束点,提高了片段质量。 基于音频嵌入的高效去重策略:利用预训练的音频模型(EAT)提取嵌入,并结合并查集数据结构进行可扩展的去重,有效处理了大规模数据中普遍存在的重复录音问题。 🔬 细节详述 训练数据:本文主要贡献是构建数据集,而非训练一个新模型。所提及的“Tadabur fine-tuned model”是基于Whisper Small在自有数据上微调的ASR模型,但论文未提供微调的具体数据规模、超参数等细节。 损失函数/训练策略/关键超参数:这些信息主要针对文中提到的已有模型(如Whisper, EAT),但论文未详述其训练过程。文中明确给出的关键超参数包括: 去重相似度阈值:0.9 边界精修缓冲区时长:5秒(经验值) 对齐方法:SILMA Embedding + 余弦相似度,阈值未明确给出。 推理细节:流水线推理涉及多个模型调用。对于对齐模块,核心是生成嵌入并计算相似度。对于边界精修,使用了“recitation-segmenter-v2”模型进行推理。 数据增强/正则化:未提及。本文工作重点是数据构建而非模型训练。 📊 实验结果 表1:不同对齐方法和ASR模型在5位朗诵者上的对齐覆盖率(%) ...

2026-04-22

Voice of India: A Large-Scale Benchmark for Real-World Speech Recognition in India

📄 Voice of India: A Large-Scale Benchmark for Real-World Speech Recognition in India #语音识别 #模型评估 #多语言 #低资源 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Kaushal Bhogale (印度马德拉斯理工学院,计算机科学与工程系,cs22d006@cse.iitm.ac.in) 通讯作者:Mitesh M. Khapra (印度马德拉斯理工学院,计算机科学与工程系)(推断:作为资深作者和项目主导者) 其他作者: Manas Dhir, Amritansh Walecha, Manmeet Kaur, Vanshika Chhabra, Aaditya Pareek, Hanuman Sidh, Sagar Jain, Bhaskar Singh, Utkarsh Singh, Tahir Javed, Shobhit Banga (印度马德拉斯理工学院,计算机科学与工程系) (部分作者可能同时隶属 Josh Talks, India,但论文中未明确个人与机构的对应关系,此处统一列出) 💡 毒舌点评 亮点:这论文像给印度ASR领域做了一次彻底的“体检”,把现有模型在真实世界(电话、方言、乡村)的“体面”扒得干干净净,用数据和地图说话,指出了“高WER重灾区”和“公平性幻觉”,堪称一份犀利的行业诊断报告。 槽点:最核心的“体检报告”(数据)自己藏着不给看,只给看化验单(结果),让同行想复现、想基于此深入研究都无从下手,这“闭源”操作在学术圈属实有点“不讲武德”。 📌 核心摘要 这篇论文旨在解决现有印度语言语音识别(Indic ASR)基准不反映真实场景、评估方法不公平的核心问题。为此,作者构建了“Voice of India”大规模基准,其数据源自3.6万名说话者的非脚本化电话对话,覆盖15种主要印度语言和139个地区集群,总计536小时。关键创新在于采用了考虑拼写变体的“正字法知情词错率”(OIWER)评估指标,并构建了“方言格”(Lattice)来容纳合理的转录变体。通过在14个先进ASR系统(包括商业API和开源模型)上的评估,论文揭示了几个关键发现:1)即使最佳模型在多种语言上也未达到20%的实用WER阈值;2)性能存在显著的地理偏差,印度北部“印地语带”和都市区表现远优于南部和语言多样地区;3)现有公开基准(如FLEURS)会高估模型性能;4)模型在女性语音上略有优势,但对年轻说话者和特定方言(如Bhojpuri)表现不佳。该基准为开发更鲁棒、公平的印度语音识别系统提供了关键的评估工具和明确的改进方向。 🏗️ 模型架构 注意:本文是一篇基准测试论文,不提出新的模型架构。其核心工作是构建评估基准并测试现有模型。 ...

2026-04-22

语音/音频论文速递 2026-04-22

语音/音频论文速递 2026-04-22 共分析 21 篇论文 ⚡ 今日概览 📥 抓取 21 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 语音识别 5篇 █████ 语音合成 4篇 ████ 基准测试 4篇 ████ 模型评估 4篇 ████ 多语言 3篇 ███ 音频大模型 3篇 ███ 数据增强 3篇 ███ 大语言模型 3篇 ███ 📊 论文评分排行榜(20 篇,按分数降序) 排名 论文 评分 🥇 Qwen3.5-Omni Technical Report 9.5分 🥈 Benign Fine-Tuning Breaks Safety Alignment in Audio LLM 9.5分 🥉 UAF: A Unified Audio Front-end LLM for Full-Duplex Spee 9.0分 4 HalluAudio: A Comprehensive Benchmark for Hallucination 9.0分 5 Voice of India: A Large-Scale Benchmark for Real-World 8.5分 6 BEAT: Tokenizing and Generating Symbolic Music by Unifo 8.5分 7 ATRIE: Adaptive Tuning for Robust Inference and Emotion 8.5分 8 Reducing the Offline-Streaming Gap for Unified ASR Tran 8.0分 9 Deep Supervised Contrastive Learning of Pitch Contours 8.0分 10 Disentangling Damage from Operational Variability: A La 8.0分 11 Text-To-Speech with Chain-of-Details: modeling temporal 7.5分 12 Towards Streaming Target Speaker Extraction via Chunk-w 7.5分 13 APRVOS: 1st Place Winner of 5th PVUW MeViS-Audio Track 7.5分 14 NVBench: A Benchmark for Speech Synthesis with Non-Verb 7.5分 15 Detecting Hallucinations in SpeechLLMs at Inference Tim 7.5分 16 MTR-DuplexBench: Towards a Comprehensive Evaluation of 7.5分 17 Tadabur: A Large-Scale Quran Audio Dataset 7.0分 18 Environmental Sound Deepfake Detection Using Deep-Learn 6.5分 19 Audio Spoof Detection with GaborNet 6.5分 20 Comparison of sEMG Encoding Accuracy Across Speech Mode 6.0分 21 MoVE: Translating Laughter and Tears via Mixture of Voc N/A 📋 论文列表 🥇 Qwen3.5-Omni Technical Report 🔥 9.5分 | #语音合成 #语音识别 #音频大模型 #预训练 | arxiv ...

2026-04-22