From Reactive to Proactive: Assessing the Proactivity of Voice Agents via ProVoice-Bench

📄 From Reactive to Proactive: Assessing the Proactivity of Voice Agents via ProVoice-Bench #语音对话系统 #基准测试 #音频大模型 #模型评估 ✅ 评分:7.0/10 | arxiv 👥 作者与机构 第一作者:Ke Xu (上海交通大学) 通讯作者:根据联系邮箱 {overji1, colane, yuwangsjtu}@sjtu.edu.cn 推断,三位作者均来自同一机构,论文未明确指定唯一通讯作者。 其他作者:Yuhao Wang (上海交通大学), Yu Wang (上海交通大学) 所属机构:上海交通大学 (Shanghai Jiao Tong University) 💡 毒舌点评 亮点:精准地抓住了当前语音代理“只会接话不会读空气”的痛点,设计了一套系统、严谨的“主动性”考卷(ProVoice-Bench),数据合成流水线考虑周全(从数字上下文到环境音效),实验揭示了模型“乱接话”和“想太多”的普遍毛病,对领域有明确的指导价值。 槽点:本质上是一篇“出题+阅卷”的评估论文,没有提出新的“解题”模型或算法。创新停留在任务定义和数据层面,深度略显不足。依赖现有的TTS和LLM来构建数据,其质量上限受限于这些生成模型本身。 🔗 开源详情 代码:论文明确表示代码将在GitHub上开源,并提供了链接:https://github.com/...(论文中为占位符,实际应指向仓库)。 模型权重:不适用(本文是评估基准,不发布新模型)。但评估中使用的被模型(如Qwen3-Omni)是公开的。 数据集:ProVoice-Bench数据集承诺将在Hugging Face上开源。包含1182个样本,覆盖四个任务,平衡正负例。 预训练权重:不适用。 在线 Demo:论文中未提及。 引用的开源项目:论文中提及并依赖了多个开源项目/模型,包括:Qwen3-Max(用于生成数字状态)、CosyVoice3(TTS)、seed-tts-eval(音色提示)、ESC-50(环境音)、CochlScene(环境噪声)、Qwen3-80B(作为评判模型)。 📌 核心摘要 本文旨在解决现有语音代理评估基准主要关注被动响应,而忽略其主动感知与干预能力的问题。作者提出了ProVoice-Bench,这是首个专门用于评估主动式语音代理的基准测试框架。该框架通过一个包含数字状态构建、场景合成、对话生成、声学模拟和对话组装的多阶段数据合成管道,构建了包含1182个高质量样本的数据集,并定义了四项核心主动任务:主动意图捕获(PIC)、潜在话题监控(LTM)、上下文事实核查(CFC)和环境声音感知(ESS)。对多个先进多模态大语言模型(如Qwen3-Omni, Step-Audio-R1)的评估结果显示,当前模型普遍存在过度触发(over-triggering)问题,且在“决定何时说话”与“决定说什么”之间存在显著差距。该工作为开发更自然、上下文感知的主动式语音助手提供了清晰的评估标准和未来路线图。 🏗️ 模型架构 本文没有提出新的模型架构,而是提出了一个评估框架(Benchmark)。该框架用于测试现有的多模态大语言模型(MLLMs)作为主动语音代理的表现。 评估流程: 输入:对于每个测试样本,输入包括:对话音频 (C_a) 和 用户数字上下文 (D_c)(如手机应用状态)。 模型处理:被评估的MLLM(如Qwen3-Omni)接收这些多模态输入。 输出:模型需要产生两个输出:工具调用请求 (T_p) 和 文本响应 (R_p)。 评估:将模型的输出与样本的语义线索 (S_c)、标准工具调用 (T_g) 和 标准响应 (R_g) 进行比较,计算主动交互预测指标(准确率、召回率、误报率)和响应准确率。 核心设计:该框架的核心是定义了四种需要模型进行“主动决策”的任务场景(PIC, LTM, ESS, CFC),每个场景都精心设计了触发或不触发主动交互的条件,以此来测试模型的上下文理解和时机判断能力。 💡 核心创新点 定义了主动式语音代理的评估范式:首次系统性地将语音代理的评估从“被动响应”扩展到“主动感知与干预”,明确了主动性的核心维度(意图推断、话题监控、事实核查、声音感知)。 构建了高质量、多任务的基准测试集ProVoice-Bench:通过创新的多阶段数据合成管道,生成了1182个包含音频、数字上下文、语义线索和标准答案的高质量样本,覆盖了四大主动任务,并平衡了正负样本。 设计了针对主动性的综合评估指标:不仅评估模型是否做出交互决策(准确率、召回率、误报率),还通过“响应准确率(R_acc)”评估决策后行动的正确性,并引入LLM-as-a-Judge进行细粒度评价。 揭示了当前先进模型的系统性缺陷:通过实验证明,即使是顶级的多模态大模型,在主动交互任务上也存在严重的“过度触发”问题,且在复杂分析任务(如CFC)中表现不佳,为未来研究指明了方向。 🔬 细节详述 训练数据:本文是评估工作,不涉及模型训练。但其测试数据构建流程极为详细: 数字状态构造:使用Qwen3-Max根据从dialog-topics数据集随机选取的主题,合成包含隐式线索(如日程、饮食限制)的细粒度手机应用状态。 场景合成:LLM基于数字状态、任务类型和可用工具,生成包含触发线索、对话上下文和时间元数据的场景。 对话生成:使用CosyVoice3 TTS模型,以seed-tts-eval中的人类语音为音色提示,生成多说话人对话。环境音事件来自ESC-50数据集。 声学模拟:对音频进行归一化(-20 dBFS)、远场模拟(3dB高频衰减、4dB能量衰减)、混响添加(随机房间脉冲响应,湿干比0.3)。 对话组装:对话间隔从高斯分布采样(一般对话:μ=0.75s, σ=0.35s;ESS任务:μ=10.0s, σ=1.66s),并叠加从CochlScene数据集随机选取的环境噪声。 损失函数:不适用(评估工作)。 训练策略:不适用。 关键超参数:数据合成中使用的声学参数(如RMS目标、滤波参数、混响湿干比、时间间隔分布参数)。 推理细节:论文未详细说明被评估模型的具体推理参数(如温度、beam size)。 数据增强:声学模拟部分(混响、噪声添加)可视为一种针对测试数据的增强,以提高评估的真实性。 📊 实验结果 主要指标对比表(表1 & 表2 关键数据复述): 模型在各项任务上的表现(Overall R_acc / Acc): Qwen3-Omni(T): CFC (0.826/0.838), LTM (0.792/0.832), PIC (0.734/0.775), ESS (0.617/0.620), 总体 (0.759/0.787)。 Step-Audio-R1(T): CFC (0.806/0.828), LTM (0.741/0.804), PIC (0.722/0.822), ESS (0.587/0.607), 总体 (0.734/0.793)。 Mimo-Audio(T): CFC (0.615/0.778), LTM (0.462/0.588), PIC (0.663/0.800), ESS (0.586/0.644), 总体 (0.596/0.729)。 关键发现:所有模型在LTM任务上的误报率(FPR)普遍很高(如Step-Audio-R1为0.920),表明“过度触发”严重。使用思维链(CoT)提示(标记为(T))能显著提升大多数模型在CFC、LTM和PIC上的性能。 消融实验(图3 - 数字上下文影响): 移除数字上下文(w/o DC)后,CFC任务的Recall急剧下降(例如Qwen3-Omni从0.433降至接近0),因为无法核对事实。 PIC任务的Recall和R_acc也明显下降(例如Qwen3-Omni(T)的Recall从0.578降至0.443),因为难以推断隐式意图。 这证明了数字上下文对于特定主动任务至关重要。 ⚖️ 评分理由 创新性:7/10 - 创新点在于定义了全新的评估任务和范式,并构建了高质量的基准数据集,这在AI评估领域是重要贡献。但未涉及模型算法本身的创新。 实验充分性:8/10 - 实验设计非常全面。数据合成流程描述极其详细,可复现性强。对比了多个主流先进模型,包含了消融实验(数字上下文的影响),指标设计合理(兼顾决策和执行)。结论有充分数据支撑。 实用价值:8/10 - 直接面向构建更智能、更主动的语音助手这一实际需求,填补了关键评估空白。其揭示的问题(如过度触发)对业界开发有直接指导意义。基准的开源将有力推动该方向研究。 灌水程度:2/10 - 论文内容紧凑,聚焦核心贡献。方法描述、实验设置和结果分析都详尽扎实,没有明显的冗余或夸大表述。是一篇高质量的评估论文。 🖼️ 图片与表格 图1: 四个主动任务的示例对话 | 保留: 是 - 直观展示了PIC、LTM、CFC、ESS四个任务的核心交互模式,是理解论文任务定义的关键。 图2: (a) ProVoice-Bench数据分布饼图; (b) 数据合成五阶段流水线示意图 | 保留: 是 - (a)图清晰展示了数据集的构成(各任务正负样本数量),(b)图是论文核心方法(数据构建)的流程总览,非常有价值。 图3: 移除数字上下文(DC)对CFC和PIC任务关键指标影响的柱状图 | 保留: 是 - 这是核心消融实验的结果图,直观证明了数字上下文的重要性,支撑了论文的关键结论。 表1: 不同模型在ProVoice-Bench各项任务上的主动交互预测指标(Rec, FPR, Acc) | 保留: 是 - 这是核心结果表之一,包含了所有模型在三个关键决策指标上的详细数据,必须保留。 表2: 不同模型在ProVoice-Bench各项任务上的响应准确率(R_acc) | 保留: 是 - 这是另一个核心结果表,评估模型决策后的执行质量,与表1互补,必须保留。 📸 论文图片 ...

2026-04-21

Hard to Be Heard: Phoneme-Level ASR Analysis of Phonologically Complex, Low-Resource Endangered Languages

📄 Hard to Be Heard: Phoneme-Level ASR Analysis of Phonologically Complex, Low-Resource Endangered Languages #语音识别, #预训练, #低资源, #模型评估 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:V.S.D.S. Mahesh Akavarapu (University of Tübingen, 计算语言学系) 通讯作者:Gerhard Jäger (University of Tübingen, 计算语言学系) (根据邮箱和机构推断) 其他作者:Michael Daniel (University of Jena, 语言学系) 💡 毒舌点评 亮点:在“几乎没数据”的极限条件下,用巧妙的初始化技巧(平均复合音素权重)让一个通用模型(wav2vec2)学会了识别拥有80多个辅音的“语言界刺猬”Archi,并且把识别错误归因于“见得少”而不是“长得怪”,这个洞察很有价值。 槽点:总共就1小时左右的训练数据,得出的“S型学习曲线”结论虽然有趣,但总感觉像是在用显微镜观察一滴水里的生态,结论能不能推广到其他语言和更大规模的数据上,还得打个大大的问号。 🔗 开源详情 代码:完全开源。GitHub地址:https://github.com/mahesh-ak/north_caucasian_asr 数据集:完全开源。HuggingFace地址:https://huggingface.co/datasets/mahesh27/archi_rutul_asr 模型权重:论文中未明确提及是否公开微调后的模型权重,但代码仓库可能包含相关脚本和配置。 在线Demo:未提及。 依赖的开源工具/模型:wav2vec2-large-ipa (Taguchi et al., 2023), Whisper-large-v3, Qwen2-Audio, Qwen2.5-Omni, KenLM。 📌 核心摘要 这篇论文针对两种音系极其复杂、资源极度匮乏的濒危东高加索语言(Archi和Rutul),首次建立了语音识别(ASR)基准。作者们整合并标准化了现有的语言学记录,创建了约50分钟和1小时20分钟的语音-文本数据集。他们评估了多种前沿ASR模型(wav2vec2, Whisper, Qwen2-Audio等),并为wav2vec2引入了一种语言特定的音素词汇表及启发式输出层初始化方法(平均复合音素参数),在该低资源场景下取得了与Whisper相当或更优的性能。超越传统的词/字错误率,论文进行了细致的音素级错误分析,发现音素识别准确率(F1)与训练频率的对数之间存在稳健的S型(sigmoid)关系。这一核心发现表明,许多通常归因于音系复杂性的识别错误,实际上主要由训练数据稀缺导致。研究证明了音素级评估对于理解低资源、类型复杂语言ASR行为的价值。 🏗️ 模型架构 论文主要评估和改进了以下模型架构,其核心输入输出流程为:原始音频波形 → 音频编码器(特征提取)→ 预测层(音素/子词概率)→ 解码(CTC或生成式)→ 文本转录(IPA或西里尔字母)。 ...

2026-04-21

HCFD: A Benchmark for Audio Deepfake Detection in Healthcare

📄 HCFD: A Benchmark for Audio Deepfake Detection in Healthcare #音频深度伪造检测 #状态空间模型 #基准测试 #超几何学习 #医疗健康 📝 评分:5.0/10 | arxiv 👥 作者与机构 第一作者: Mohd Mujtaba Akhtar (Veer Bahadur Singh Purvanchal University, India) † (论文标注为Equal contribution as a first author) 通讯作者: Muskaan Singh (Ulster University, UK) (论文标注为Corresponding author) 其他作者: Girish (UPES, India) † (论文标注为Equal contribution as a first author) 💡 毒舌点评 亮点: 填补了医疗音频领域深伪检测的空白,像个“音频法医”一样专门为病态语音设计检测工具,数据集构建和实验设计非常系统、扎实。 槽点: 用了“Mamba”、“超几何空间”这些时髦词汇包装,但核心是“多个证据向量+原型聚类”的思路,有种给传统方法穿上了最新款外套的感觉。另外,实验都在干净的数据集上做,真放到嘈杂的远程医疗通话里,这97%的准确率估计得打个对折。 🔗 开源详情 代码: 论文声明将在GitHub提供代码和评估资源(链接:https://helixometry.github.io/HCFD/)。但截至论文阅读时,该链接内容可能尚未完全公开。 模型权重: 未明确提及是否公开训练好的PHOENIX-Mamba模型权重。 数据集: 论文声明将提供HCFK数据集的划分文件和生成管道。数据集本身基于多个现有公开医疗语音语料库构建,需遵循原语料库的许可协议获取。 预训练权重: 实验中使用的预训练模型(PaSST, WavLM, Wav2Vec2, Whisper等)均为公开模型,链接已在论文中提供。 在线Demo: 未提及。 依赖的开源工具: 依赖多个公开的神经音频编解码器实现(SpeechTokenizer, Descript Audio Codec, Encodec, SoundStream, Funcodec, Audiodec, SNAC),链接已在附录A中提供。 📌 核心摘要 本文针对医疗健康领域中神经音频编解码器生成的语音深伪检测问题,提出了一个全新的研究任务(HCFD)和基准数据集(HCFK)。研究发现,在健康语音上训练的现有深伪检测模型在病态语音上性能显著下降。为此,论文首先验证了预训练音频模型(如PaSST)能更好地应对病理语音带来的变异性。更重要的是,本文提出了一个名为PHOENIX-Mamba的几何感知检测框架,该框架通过Mamba骨干网络建模长程上下文,并利用超几何空间中的多个原型来表征和聚类异质的伪造语音模式,从而在多个临床条件(抑郁、阿尔茨海默症、构音障碍)和语言(英语、中文)上取得了优于预训练模型基线的性能。工作为医疗音频安全提供了重要的基准和初步解决方案,但其方法在真实复杂场景下的鲁棒性以及数据集的覆盖广度仍有待提升。 ...

2026-04-21

ICLAD: In-Context Learning with Comparison-Guidance for Audio Deepfake Detection

📄 ICLAD: In-Context Learning with Comparison-Guidance for Audio Deepfake Detection #音频深度伪造检测 #少样本 #检索增强 #音频大模型 #可解释性 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者(推断):Benjamin Chou(普渡大学,Purdue University) 通讯作者(推断):Yi Zhu(Reality Defender Inc.),Surya Koppisetti(Reality Defender Inc.) 其他作者:无 机构详情: Benjamin Chou:普渡大学(Purdue University),论文注释表明工作在Reality Defender Inc.实习期间完成。 Yi Zhu:Reality Defender Inc.(美国/加拿大,邮箱后缀为@inrs.ca,INRS为加拿大魁北克大学研究所)。 Surya Koppisetti:Reality Defender Inc.。 💡 毒舌点评 亮点:把大模型(ALM)的“思考”能力用在了音频安全这个“脏活累活”上,还搞出了个“左右互搏”(PCR)的套路让模型自己挑刺、去伪存真,思路相当清奇,结果在真实世界数据上效果拔群。槽点:最好的“厨师”(Phase-1证据生成)用的是谷歌的“秘制酱料”(Gemini),自己家“厨房”(开源ALM)的灶台还没完全搭好(AF3指令遵循差),让想完全复刻这道菜的人有点抓瞎。而且,这“秘制酱料”在处理“罐头食品”(脚本语音)时,味道反而不对了。 🔗 开源详情 代码:论文提到“GitHub”链接,但未在正文中给出具体URL。未明确说明是否开源。 模型权重: 专用检测器:使用的Wav2Vec2-AASIST是公开的预训练模型。 ALM:主要实验使用专有的Gemini-2.5 Flash API。评估了开源的Audio Flamingo 3 (AF3) 模型权重。 ICLAD本身:未提及发布任何ICLAD特有的模型权重。其“模型”本质上是提示策略和流程。 数据集:使用的均为公开学术数据集(ASVspoof 2019/2021, MLAAD, ITW, SpoofCeleb, DFEval 2024),并提供了详细的分割和许可证信息。 预训练权重:Phase-1证据库依赖Gemini生成,非可下载的预训练权重。 在线Demo:未提及。 引用的开源项目:faiss(用于k-NN), lm-format-enforcer, xgrammar(用于尝试约束AF3输出)。 📌 核心摘要 本文针对音频深度伪造检测模型在真实场景(in-the-wild)中泛化能力差的核心问题,提出了一种名为ICLAD的全新范式。该框架利用音频语言模型(ALM)的上下文学习能力,实现了无需训练的快速适应。其核心是创新的成对比较推理策略:在离线阶段,引导ALM为每个样本同时生成“真实”和“伪造”的证据,再结合真实标签进行证据调和,生成高质量、去幻觉的文本解释库;在线推理时,通过检索最相似的样本及其证据作为上下文,并结合一个动态路由机制,将分布内样本交给专用检测器处理,将分布外(真实场景)样本交给ALM进行推理。实验表明,ICLAD在三个真实场景数据集上显著超越了SOTA专用检测器(宏F1最高提升近2倍),并能提供可解释的文本理由。然而,该方法在脚本语音数据集上性能有所下降,且其最佳性能依赖于专有模型Gemini。 ...

2026-04-21

Incremental learning for audio classification with Hebbian Deep Neural Networks

📄 Incremental learning for audio classification with Hebbian Deep Neural Networks #音频分类 #自监督学习 #多任务学习 #模型评估 ✅ 评分:6.5/10 | arxiv 👥 作者与机构 第一作者:Riccardo Casciotti (论文中未明确标注机构,根据arXiv作者列表和研究领域推断可能来自意大利的学术机构,如米兰理工大学等) 通讯作者:Annamaria Mesaros (论文中未明确标注,但作为资深作者和项目负责人,通常为通讯作者。推断来自坦佩雷大学或相关机构) 其他作者:Francesco De Santis, Alberto Antonietti (机构推断同第一作者) 💡 毒舌点评 亮点:把生物脑的“用进废退”哲学(Hebbian学习)和“重点保护”策略(核塑性)搬到音频分类的增量学习上,思路清奇,为摆脱反向传播依赖提供了一个有趣的备选方案。 槽点:绝对性能(联合训练58.4%)在ESC-50上实在不算亮眼,让人怀疑这个“生物脑”是不是有点“健忘”;实验对比略显“关起门来比武”,缺少与当前音频领域强力对手的正面交锋。 🔗 开源详情 代码:已开源。GitHub地址:https://github.com/RiccardoCasciotti/Hebbian-TIL。论文中未说明使用的框架。 模型权重:论文中未提及是否公开预训练模型权重。 数据集:使用的是公开数据集ESC-50和UrbanSound8K,但论文中未提供数据预处理或增强的额外代码。 在线Demo:未提及。 依赖的开源项目:论文中未明确列出,但代码库可能依赖于PyTorch或TensorFlow等常见深度学习框架。 📌 核心摘要 本文针对音频分类中的增量学习(持续学习)问题,提出了一种受生物启发的解决方案。核心是解决深度学习模型在学习新任务时对旧知识的“灾难性遗忘”。作者首次将Hebbian学习(一种基于神经元同步激活的无监督、无反馈学习规则)与增量学习相结合,并设计了一个核塑性机制。该机制通过分析训练过程中卷积核的权重变化和激活值,动态识别对当前任务重要的核,并在学习新任务时,选择性增强非重要核的学习率(提高可塑性),同时抑制重要核的更新(维持稳定性)。在ESC-50数据集上,该方法在五个增量步骤后达到了76.3%的总体准确率,显著优于不使用核塑性的基线(68.7%)和EWC方法(33%)。增量学习指标(如BWT, FM)也证实了该方法在保持可塑性的同时,有效减少了遗忘。工作展示了Hebbian学习作为一种生物合理、无监督的替代范式,在持续学习中的潜力。 🏗️ 模型架构 模型整体是一个用于任务增量学习(Task-Incremental Learning, TIL)的混合架构,结合了无监督的Hebbian特征提取器和监督的分类头。 输入:音频信号的时频表示(如梅尔频谱图)。 特征提取器:由5个卷积层构成,是模型的核心。 学习规则:所有卷积层使用SoftHebb算法进行无监督、前馈式学习。该算法是经典Hebb规则的改进,通过贝叶斯解释和自适应学习率,在单次前向传播中更新权重,无需误差反向传播。 激活函数:使用Triangle激活函数,而非ReLU。 池化层:前4个卷积层后接最大池化层,第5个(最后一个)卷积层后接平均池化层。 归一化:每层后都使用批归一化(Batch Normalization)。 训练方式:在训练每个新任务时,特征提取器首先使用SoftHebb算法进行单轮(one epoch) 的无监督训练,然后被冻结。 分类器:一个全连接层,使用反向传播进行有监督训练。 多头设计:为每个增量任务(T_new)实例化一个新的、独立的分类头(H_new)。训练时只更新当前任务的头,旧的头被冻结并存储。 推理:根据已知的任务标签,选择对应的分类头进行预测。 核塑性模块:一个在特征提取器训练过程中激活的调控模块。它不改变网络结构,而是动态调节每个卷积核的学习率。它维护两个历史记录:1)每个核在以往任务上的平均权重变化量;2)每个核在以往任务上的累积激活值排名(选出Top-K重要的核)。在学习新任务时,如果某个重要核的权重更新超过了其历史平均值,则触发调制:抑制重要核(j∈K)的更新(乘以β<1),同时增强非重要核(j∉K)的更新(乘以α>1),以此平衡稳定性与可塑性。 数据流:输入音频 -> 5层Hebbian卷积特征提取器(由核塑性模块动态调制) -> 冻结的特征向量 -> 当前任务的分类头 -> 预测类别。 💡 核心创新点 首次结合Hebbian学习与增量学习:开辟了使用无监督、生物合理的学习规则解决增量学习中灾难性遗忘问题的新路径,与主流的基于反向传播的解决方案形成对比。 核塑性机制:提出了一种受神经调质(如多巴胺)启发的、基于学习率调制的增量学习方法。其创新在于通过权重变化历史和激活值排名这两个标准来动态识别“重要”卷积核,并在学习新任务时对其实施保护(降低学习率),同时鼓励非重要核的可塑性(提高学习率),从而实现选择性巩固。 Hebbian特征提取器+多头分类器的混合架构:将无监督的特征学习(Hebbian部分)与有监督的任务特定分类(反向传播部分)解耦。这种设计让核塑性机制可以专注于保护特征表示空间的稳定性,而分类头则通过新增的方式避免干扰,两者协同解决遗忘问题。 🔬 细节详述 训练数据:使用ESC-50数据集(2000条5秒环境声音,50类,每类40条)。划分为5个增量任务:第一个任务包含30个随机选择的类别,后续4个任务各包含5个不重叠的类别。使用3折训练,1折验证,1折测试。 训练策略: 两阶段训练:对于每个新任务:1) 特征提取器训练:使用SoftHebb算法,单轮(1 epoch)无监督训练,同时应用核塑性机制。2) 分类头训练:冻结特征提取器,使用反向传播训练当前任务的新分类头,共50个epoch。 优化器与学习率:论文未明确说明反向传播阶段分类头训练的优化器和初始学习率。Hebbian学习阶段的学习率由SoftHebb算法自适应调整,核塑性机制在此基础上进行调制(α=1.15, β=0.9)。 关键超参数: top_k:保护的重要核比例,设为0.6(即60%的核被视为重要)。 α:非重要核的学习率增强因子,设为1.15。 β:重要核的学习率抑制因子,设为0.9。 权重变化跟踪间隔:每5个批次(batch)记录一次权重变化。 数据增强:论文中未提及使用任何数据增强技术。 训练硬件:论文中未提及训练所用的GPU型号、数量和训练时间。 📊 实验结果 主要指标对比(表1数据复述): 方法 KP Task 0 Task 1 Task 2 Task 3 Task 4 Overall EWC Baseline - 9.5 54.5 63.5 82.5 70.5 33.0 TIL (proposed) – 60.4 70.9 72.7 71.2 68.7 68.7 TIL (proposed) ✓ 60.0 71.4 74.6 75.8 76.3 76.3 Joint learning – 60.4 57.9 57.4 57.2 58.4 58.4 Joint learning ✓ 60.0 58.5 56.8 54.9 54.7 54.7 Common head – – – – – – 53.3 注:括号内数字为学习当前任务时的准确率(新任务性能)和对旧任务的平均准确率(旧任务保持性能)。 增量学习指标(表2数据复述): Metric KP Task 1 Task 2 Task 3 Task 4 BWT – -2.33 -4.67 -8.64 -12.63 BWT ✓ -1.98 -1.82 -2.11 -2.36 IM – -25.85 -25.91 -26.11 -24.61 IM ✓ -26.22 -25.83 -27.36 -26.33 FM – 2.33 1.15 1.22 1.04 FM ✓ 1.98 0.88 0.90 0.56 消融实验:核心消融是有无核塑性(KP)。结果表明,KP将最终总体准确率从68.7%提升至76.3%。更重要的是,KP模型在后续任务中对早期任务的保持能力远强于无KP模型(如Task 0最终准确率:KP模型58% vs 无KP模型37%),且BWT和FM指标显著更优。 在其他数据集上的实验:在UrbanSound8K数据集上(5个任务,每个任务2类),KP模型在5个任务上的准确率分别为84%, 87%, 86%, 85%, 92%,在早期任务上比无KP模型最高高出4%。 局限性:联合训练(Joint learning)的绝对准确率(58.4%)较低,表明该Hebbian架构在标准监督学习设置下的性能可能不是最优的。实验缺乏与专门针对音频的增量学习SOTA方法的对比。 ⚖️ 评分理由 创新性:7/10。首次将Hebbian学习引入音频增量学习,并设计了受生物启发的核塑性机制,思路新颖,为领域提供了有价值的替代视角。但创新属于应用型和机制改良型,并非基础理论的突破。 实验充分性:6/10。在单一数据集(ESC-50)上进行了详细的消融实验和增量学习指标分析,并在UrbanSound8K上做了初步验证。但缺少与更多、更强基线(尤其是音频领域的SOTA增量学习方法)的对比,绝对性能基准不高。 实用价值:7/10。增量学习是实际部署中的关键需求,该方法为构建低功耗、生物合理的持续学习音频系统提供了可能。但当前性能和架构复杂度可能限制其直接落地。 灌水程度:8/10(分数越高越水)。论文结构清晰,动机明确,技术细节描述较为完整,实验设计针对核心问题,没有明显的冗余内容或夸大表述。是一篇扎实的研究工作。 🖼️ 图片与表格 图1: 模型架构图 | 保留: 是 - 清晰地展示了5层Hebbian卷积特征提取器、多头分类器以及核塑性机制的作用位置,是理解模型工作原理的核心示意图。 图2: 各任务最终准确率对比柱状图 | 保留: 是 - 直观对比了KP模型与无KP模型在每个增量任务上的最终性能,突出了KP在防止早期任务性能崩溃上的巨大作用,是结果分析的关键图示。 表1: 不同学习变体在各阶段的分类准确率 | 保留: 是 - 核心结果表格,包含了所有对比方法(EWC, TIL w/o KP, TIL w/ KP, Joint, Common head)在五个任务节点上的详细准确率数据,是得出主要结论的依据。 表2: 增量学习指标对比 | 保留: 是 - 提供了BWT, IM, FM三个关键增量学习指标的量化对比,从不同角度证实了KP方法在缓解遗忘和保持可塑性方面的优势。 📸 论文图片 ...

2026-04-21

Latent Fourier Transform

📄 Latent Fourier Transform #音乐生成 #扩散模型 #生成模型 #数据集 #音频生成 ✅ 评分:7.5/10 | arxiv 👥 作者与机构 第一作者:Mason L. Wang (MIT CSAIL) 通讯作者:Cheng-Zhi Anna Huang (MIT CSAIL) 其他作者:无 💡 毒舌点评 亮点:这篇论文最妙的地方在于,它没有去折腾音频波形本身,而是聪明地给音乐模型的“脑内活动”(潜在表示)做了一次傅里叶体检,然后像调EQ一样去调节音乐在不同时间尺度上的特征,思路非常清奇且有效。槽点:目前这“脑内手术”需要专门训练一套模型才能做,还不能直接给一个现成的音乐生成模型(如MusicLM)装上这个“傅里叶控制插件”,限制了其即插即用的潜力。 🔗 开源详情 代码:已开源。GitHub地址:https://github.com/maswang32/latentfouriertransform/。包含模型训练、推理、混合、可解释性分析代码,以及所有基线实现和实验管道。 模型权重:论文中未明确提及是否公开预训练模型权重。 数据集:使用了公开数据集MTG-Jamendo、GTZAN和Maestro。 在线Demo:论文中未提及。 📌 核心摘要 这篇论文旨在解决现有音乐生成模型难以对任意时间尺度上的音乐模式进行精确控制的问题。作者提出了潜在傅里叶变换(LatentFT) 框架,其核心是将离散傅里叶变换应用于由扩散自编码器编码得到的潜在向量序列,从而得到“潜在频谱”。通过在训练过程中对潜在频谱进行随机频率掩码,迫使解码器学会从部分频率信息中重建音乐,使得训练后的模型潜在空间对频率域操作具有鲁棒性。这使得用户可以在推理时,通过指定潜在频率(对应音乐模式的时间尺度)来生成保留特定尺度特征的变体,或将两首乐曲按不同时间尺度进行混合。实验表明,LatentFT在条件生成和混合任务的保真度与质量上均优于多个基线方法。用户研究也证实了其生成质量和混合效果更受青睐。此外,论文还展示了隔离特定潜在频率以“聆听”对应音乐模式,以及分析不同音乐属性(如流派、和声、节奏)在潜在频谱中分布的能力。该工作为生成模型引入了一种直观、连续的频率域控制维度,推动了更可解释、可交互的音乐生成模型的发展。其局限性在于需要端到端训练特定模型,且目前主要应用于音乐领域。 🏗️ 模型架构 LatentFT 是一个端到端的编码器-解码器架构,其完整流程如下: 编码阶段: 输入:音频波形或梅尔频谱图 x₀。 编码器:将 x₀ 映射为一个时间序列的潜在向量 z ∈ R^(C'×T')。论文尝试了三种编码器:帧级MLP、1D U-Net(基于梅尔谱)和基于Descript音频编解码器(DAC)的编码器+1D U-Net。 潜在傅里叶变换:对潜在序列 z 沿时间轴应用离散傅里叶变换(DFT),得到潜在频谱 Z ∈ C^(C'×K)。Z 的频率轴称为潜在频率轴,其上的频率(Hz)对应于潜在序列振荡的速率,即音乐模式的时间尺度。 频率掩码(训练时随机,推理时用户指定): 采样一个随机阈值 η 和一组频率分箱得分 s(通过相关矩阵 K 生成,使相邻分箱得分相关)。 生成二进制掩码 M,保留得分高于阈值的分箱。 应用掩码:Z_masked = Z ⊙ M。 逆变换:对掩码后的频谱 Z_masked 应用逆DFT,得到频率掩码后的潜在序列 z_masked。 解码/生成阶段: 解码器:一个基于扩散模型的U-Net。其输入是:(a) 频率掩码后的潜在序列 z_masked(作为条件),(b) 带噪的梅尔频谱图 x_τ(训练时为加噪的真实数据,推理时为随机噪声),(c) 噪声水平 τ。 输出:预测的干净梅尔频谱图 x̂₀。最终通过BigVGAN声码器将梅尔谱转换为音频波形。 关键设计理由: 使用扩散自编码器:结合了表示学习(编码器)和强大的生成能力(扩散解码器),且其潜在表示具有语义意义。 在潜在空间而非音频空间做傅里叶变换:音频的频谱对应音色,而潜在序列的频谱对应音乐模式的时间变化(如和弦变化、节奏型)。这使得控制直接作用于音乐结构。 训练时频率掩码:这是核心创新。它迫使解码器学会从不完整的频率信息中连贯地重建音乐,从而使潜在空间对频率域操作(如掩码、混合)变得鲁棒。没有这一步,直接对预训练模型的潜在表示进行频率滤波会导致生成质量严重下降(如消融实验所示)。 相关分组与对数频率缩放:生成连续的掩码区域,更符合用户实际操作习惯,并平衡了1/f频谱中高低频能量不均的问题。 💡 核心创新点 潜在傅里叶变换(Latent Fourier Transform)的概念: ...

2026-04-21

LLM-Codec: Neural Audio Codec Meets Language Model Objectives

📄 LLM-Codec: Neural Audio Codec Meets Language Model Objectives #语音大模型, #预训练, #基准测试, #音频大模型 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Ho-Lam Chung (台湾大学 通信工程研究所, 华硕智能云服务) 通讯作者:Hung-yi Lee (台湾大学 人工智能卓越研究中心) 其他作者:Yiming Chen (华硕智能云服务) 💡 毒舌点评 亮点:精准地抓住了语音令牌化领域“重建质量”与“语言模型可预测性”之间的核心矛盾,并用一套设计精巧、实验扎实的“组合拳”(FTP+SA+Gumbel桥)漂亮地解决了问题,效果拔群。槽点:方法依赖语音-文本对齐(SA),这在非语音音频或无转录数据上就成了“阿喀琉斯之踵”,限制了其通用性;另外,训练时需要额外的前向传播和辅助模块,对计算资源是个小考验。 🔗 开源详情 代码与模型:论文明确承诺将开源,GitHub仓库地址为 https://github.com/voidful/llm-codec。截至论文阅读时(v1版本),代码和模型权重尚未发布。 预训练权重:基于AUV编码器和Qwen3-4B-Instruct语言模型进行微调。预计开源时会提供微调后的编码器权重。 在线Demo:论文中未提及。 依赖的开源项目:论文中引用了多个开源项目作为基线或组件,包括:AUV编码器、Qwen3大语言模型、EnCodec、SoundStream、BigCodec、UniCodec、WavTokenizer、LibriSpeech数据集、Codec-SUPERB评估工具、SALMon评估基准等。 📌 核心摘要 本文旨在解决语音语言模型(SLM)中一个根本性矛盾:神经音频编码器以波形重建为目标进行优化,而语言模型以序列预测为目标进行优化,这种目标不匹配导致生成的离散语音令牌熵值高、难以预测。为此,作者提出了LLM-Codec训练框架,在不改变编码器和语言模型架构的前提下,通过引入两个面向语言模型的正则化目标来重塑编码器:1)未来令牌预测(FTP),使用Medusa风格的多头结构预测多个未来令牌,鼓励令牌序列的局部可预测性;2)语义对齐(SA),通过对比学习将语音在冻结LLM中的隐藏状态与对应文本的隐藏状态对齐,确保令牌的语义一致性。一个可微分的Gumbel桥使得梯度能够端到端地回传至编码器。实验表明,LLM-Codec在SALMon语音连贯性基准上达到61.6%的准确率(比基线AUV高12.1个百分点),并将令牌级困惑度降低了35倍,同时在Codec-SUPERB-tiny基准上将语音Mel距离提升了5.0%,证明了重建质量与令牌可学习性可以协同提升。 🏗️ 模型架构 LLM-Codec的整体架构是一个增强型的神经音频编码器,其核心是在标准编码器-量化器-解码器流程中,插入了面向LLM的训练模块,并通过一个可微分的桥接器与冻结的LLM主干连接,实现端到端训练。 完整输入输出流程: 输入:原始音频波形 x。 编码与量化:音频 x 通过编码器 ℰ 得到连续潜变量 z,再通过量化器 𝒬(使用Gumbel-Softmax桥接)得到离散令牌 c。 LLM处理:离散令牌 c 通过音频令牌嵌入层 E_audio 转换为嵌入向量,输入到冻结的LLM主干(如Qwen3-4B)中,得到各层的隐藏状态 {h_t}。 辅助任务计算: 未来令牌预测(FTP):在LLM的最后一个隐藏状态上,连接K个Medusa头(线性层 M_k),分别预测当前时刻之后第k个未来令牌。 语义对齐(SA):从LLM的中间到高层(如第10-25层)提取语音序列的最后隐藏状态 h_audio,与对应文本通过相同且冻结的LLM得到的最后隐藏状态 h_text 进行对齐(余弦损失+对比损失)。 重建输出:离散令牌 c 通过解码器 𝒟 重建为音频波形 x̂。 损失计算与反向传播:总损失 ℒ_total 包含重建损失 ℒ_codec、桥接损失 ℒ_bridge、FTP损失 ℒ_FTP、语义对齐损失(ℒ_cos + ℒ_ctr)。梯度通过Gumbel桥反向传播至编码器 ℰ,从而优化编码器使其产生对LLM更友好的令牌。 主要组件与设计理由: ...

2026-04-21

MimicLM: Zero-Shot Voice Imitation through Autoregressive Modeling of Pseudo-Parallel Speech Corpora

📄 MimicLM: Zero-Shot Voice Imitation through Autoregressive Modeling of Pseudo-Parallel Speech Corpora #语音转换 #自回归模型 #强化学习 #多语言 #工业应用 🔥 评分:8.5/10 | arxiv 👥 作者与机构 第一作者:Tao Feng (清华大学) 通讯作者:Zhizheng Wu (香港中文大学(深圳)) 其他作者: Yuxiang Wang, Yuancheng Wang, Xueyao Zhang, Dekun Chen, Chaoren Wang (香港中文大学(深圳)) Xun Guan (清华大学) 💡 毒舌点评 亮点:把TTS生成的“垃圾”(合成语音)从训练目标变成训练源,这个“角色交换”的脑回路确实清奇,直接绕过了合成质量天花板,是论文最大的创新点。槽点:虽然思路巧妙,但整个框架依然严重依赖一个高质量的外部TTS系统来生成训练源,33%的数据过滤率也暗示了对TTS质量的敏感性;此外,构建850万对训练数据所需的计算资源(TTS推理+模型训练)恐怕不是一般实验室能承受的,可复现性存疑。 🔗 开源详情 代码:论文在摘要和正文末尾提供了项目页面 (https://fff-ttt.github.io/MimicLM_demo/) 和 GitHub Issue 链接,暗示代码可能开源或部分开源。但论文正文中未明确给出GitHub仓库地址。 模型权重:未明确说明是否公开预训练模型权重。 数据集:伪平行训练数据基于公开的Emilia数据集构建,但构建后的850M对数据本身未说明是否公开。 在线Demo:项目页面标题为“MimicLM_demo”,很可能提供在线演示。 引用的开源项目:论文明确依赖并集成了 CosyVoice 2.0 的音频分词器和流匹配解码器,以及 Qwen2.5 的语言模型架构。还使用了 Whisper-large-v3 进行ASR过滤和评估。 📌 核心摘要 这篇论文旨在解决零样本语音模仿任务中高质量平行训练数据稀缺的核心瓶颈。传统方法要么依赖复杂的解耦架构,要么使用合成语音作为训练目标,导致输出质量受限于合成系统的能力。作者提出了一种名为 MimicLM 的新框架,其核心创新在于**“角色交换”的数据构建策略**:使用TTS生成的语音作为训练源,而将真实的录音保留为训练目标。这使得模型能够直接从真实语音分布中学习,突破了合成质量的“天花板”。为应对这一新范式带来的内容保真度挑战和训练-推理分布不匹配问题,论文进一步引入了交错文本-音频建模(通过文本锚点引导内容生成)和基于DPO的偏好对齐(使用真实输入进行后训练以弥合分布差距)。实验表明,MimicLM在自然度、说话人相似度和情感保真度上取得了与SOTA方法竞争甚至更优的结果,尤其在主观评价中表现突出,并有效降低了在真实输入上的词错误率。该工作为语音模仿提供了一种概念更简单、效果显著的新范式。 ...

2026-04-21

MINT-Bench: A Comprehensive Multilingual Benchmark for Instruction-Following Text-to-Speech

📄 MINT-Bench: A Comprehensive Multilingual Benchmark for Instruction-Following Text-to-Speech #语音合成 #基准测试 #多语言 #模型评估 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Huakang Chen (陈华康)(西北工业大学,音频、语音与语言处理实验室,ASLP@NPU) 通讯作者:Lei Xie (谢磊)(西北工业大学,音频、语音与语言处理实验室,ASLP@NPU) 其他作者: Jingbin Hu (胡景斌)(西北工业大学,ASLP@NPU) Liumeng Xue (薛刘猛)(南京大学,智能科学与技术学院) Qirui Zhan (詹启瑞)(西北工业大学,ASLP@NPU) Wenhao Li (李文浩)(西北工业大学,ASLP@NPU) Guobin Ma (马国斌)(西北工业大学,ASLP@NPU) Hanke Xie (谢涵科)(西北工业大学,ASLP@NPU) Dake Guo (郭大可)(西北工业大学,ASLP@NPU) Linhan Ma (马林汉)(西北工业大学,ASLP@NPU) Yuepeng Jiang (蒋月鹏)(西北工业大学,ASLP@NPU) Bengu Wu (吴本固)(宇图智能,北京) Pengyuan Xie (谢鹏远)(灵光乍现科技,上海) Chuan Xie (谢川)(灵光乍现科技,上海) Qiang Zhang (张强)(灵光乍现科技,上海) 💡 毒舌点评 亮点:这篇论文精准地戳中了指令跟随TTS领域的“阿喀琉斯之踵”——评估。它不像某些工作那样“造轮子”,而是“造尺子”,并且是一把设计精巧、刻度分明、还能换着语言用的“多功能智能尺”。其分层分类和诊断性评估的思路,为混乱的评估现状带来了急需的秩序。 槽点:尺子本身好不好用,很大程度上依赖于“持尺人”(即评估器Gemini)。虽然论文做了人类一致性验证,但将评估标准很大程度上托付给一个商业黑盒API,总让人感觉根基不够稳固,未来可能需要更开放、可复现的评估模型。 🔗 开源详情 代码与工具:论文明确承诺将开源数据构建和评估工具包。项目主页为 https://longwaytog0.github.io/MINT-Bench/,并提供了用于接收反馈的GitHub Issue链接。 数据集:MINT-Bench基准数据集本身将开源,包含10种语言的指令-文本对。 模型权重:本文不涉及提出新的TTS模型,因此不涉及模型权重开源。但评估中使用了多个开源和商业模型。 在线Demo:论文主页提供了Demo链接。 依赖的开源项目:评估中使用了开源ASR模型(Paraformer-zh, Whisper Large-v3)和说话人嵌入模型(WavLM-Large)。 📌 核心摘要 这篇论文旨在解决指令跟随文本转语音(TTS)领域缺乏系统化评估工具的问题。当前评估存在覆盖不全、诊断粒度粗、多语言支持弱等缺陷。为此,作者提出了MINT-Bench,一个全面的多语言基准测试。其核心方法包括:1)一个基于10种原子声学属性的分层多轴分类法,系统性地组织了从简单到复杂(如组合、动态、角色扮演)及特殊(如非言语事件)的控制案例;2)一个三阶段数据构建流程(节点规范->结构化标签规划->指令-文本对生成),确保生成语义清晰、无属性泄露的测试用例;3)一个分层混合评估协议,依次评估内容一致性(基于ASR和WER)、指令跟随(基于大型音频语言模型判断)和感知质量/音色多样性。在十种语言上的实验表明,当前系统远未解决该问题:商业系统整体领先,但开源模型在中文等本地化场景中已具竞争力;内容保真度高不等于可控性强,复杂的组合和副语言控制仍是主要瓶颈。该工作为可控、多语言的语音生成研究提供了重要的诊断和评估基础。 ...

2026-04-21

MoVE: Translating Laughter and Tears via Mixture of Vocalization Experts in Speech-to-Speech Translation

📄 MoVE: Translating Laughter and Tears via Mixture of Vocalization Experts in Speech-to-Speech Translation #语音翻译 #混合专家模型 #音频大模型 #少样本 🔥 评分:8.0/10 | arxiv 👥 作者与机构 第一作者:Szu-Chi Chen (台湾大学,国立台湾大学) 通讯作者:Hung-yi Lee (台湾大学,国立台湾大学;根据贡献和常见通讯作者习惯推断) 其他作者: I-Ning Tsai (台湾大学,国立台湾大学) Yi-Cheng Lin (台湾大学,国立台湾大学) Sung-Feng Huang (NVIDIA,英伟达台湾) 💡 毒舌点评 亮点:精准抓住了S2ST“翻译了语义,却丢失了灵魂(笑声/哭泣)”这个长期痛点,并用一套从数据到模型的组合拳(合成数据管道+MoE架构+两阶段训练)系统性地解决了它,效果拔群,NV保留率从14%飙升到76%。槽点:数据合成依赖于现有的情感TTS和过滤器,可能引入合成偏差;目前只聚焦于五种特定情感/声音,离建模人类全部复杂细腻的情感光谱还有距离。 🔗 开源详情 代码:论文未明确提及代码是否开源。 模型权重:论文未明确提及预训练或微调后的模型权重是否公开。 数据集:承诺开源。将发布一个1000小时的合成表达性S2ST语料库(En-Zh),包含五种情感/非语言声音类别。 在线Demo:承诺提供。访问地址:https://47zzz.github.io/MoVE/。 预训练权重:基于Kimi-Audio-7B-Instruct,但该基础模型的权重是否由作者提供未知。 引用的开源项目:使用了Whisper(编码器和ASR评估)、IndexTTS2(合成引擎)、Librosa(音频处理)、多个情感语音数据集(CREMA-D, MSP-IMPROV, IEMOCAP, JVNV)。 📌 核心摘要 这篇论文旨在解决语音到语音翻译(S2ST)系统普遍缺失非语言声音(如笑声、哭泣)和情感韵律的问题,这严重限制了跨语言交流的自然度和语用准确性。作者提出了三大贡献:1) 一个可扩展的表达性数据合成管道,能自动生成高质量、带情感标注的S2ST训练对,克服了数据稀缺瓶颈;2) MoVE(混合声音专家)架构,基于预训练音频大模型(Kimi-Audio),通过并行多个情感特化的LoRA适配器和一个动态软加权路由器,实现了对混合情感状态的精细建模,避免了特征干扰;3) 揭示了惊人的数据效率,仅需30分钟的精选数据微调,就能激活预训练模型的强大潜力,达到接近全量数据95%的情感保真度。实验表明,MoVE在英中翻译任务上,在语义准确性和非语言声音保留率(76%)上均大幅超越现有SOTA系统,并获得了最高的人工评价自然度和情感相似度分数。 🏗️ 模型架构 MoVE架构建立在预训练的音频大模型Kimi-Audio之上,其核心流程如下: 输入:源语言语音波形。 编码与离散化: 语音首先通过一个Whisper编码器(经过在表达性数据集上微调)提取高级语义和声学特征。 同时,语音通过音频分词器(Audio Tokenizer) 被离散化为一系列语音token。 LLM处理(核心创新): 离散token序列输入到冻结参数的Kimi-Audio LLM主干中。 在LLM的每个Transformer层中,注入了五个并行的LoRA专家适配器,分别专精于“高兴”、“悲伤”、“愤怒”、“大笑”、“哭泣”五种声音流形。每个专家独立作用于注意力层和前馈网络的投影矩阵(Wq, Wk, Wv, Wo, Wgate)。 一个动态软加权路由器(一个带Softmax的轻量线性层)根据当前token的隐藏状态x,为五个专家的输出计算混合权重g_i(x)。最终层的输出是基础模型权重与所有专家加权输出的和:h(x) = W0*x + Σ g_i(x) * (B_i * A_i * x)。这实现了token级别的、连续的情感混合。 解码与生成: LLM输出的离散语音token序列被送入音频解解码器(Audio Detokenizer)。 该解码器经过在表达性数据(特别是非语言声音)上的微调,能更好地将token重建为包含丰富情感和非语言声音的目标语言语音波形。 输出:保留了源语音情感和非语言声音的目标语言语音。 关键设计选择理由: ...

2026-04-21