SPADE: Structured Pruning and Adaptive Distillation for Efficient LLM-TTS

📄 SPADE: Structured Pruning and Adaptive Distillation for Efficient LLM-TTS #语音合成 #知识蒸馏 #大语言模型 #零样本 #模型评估 ✅ 7.5/10 | 前25% | #语音合成 | #知识蒸馏 | #大语言模型 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Tan Dat Nguyen(KAIST, 韩国高级科学技术研究院) 通讯作者:Jaehun Kim(KAIST, 韩国高级科学技术研究院) 作者列表:Tan Dat Nguyen(KAIST)、Jaehun Kim(KAIST)、Ji-Hoon Kim(KAIST)、Shukjae Choi(42dot Inc.)、Youshin Lim(42dot Inc.)、Joon Son Chung(KAIST) 💡 毒舌点评 这篇论文像一位精干的“压缩工程师”,精准地指出了LLM-TTS这个“胖子”身上哪些“赘肉”(冗余层)可以剪掉,并用“营养针”(自适应蒸馏)让它快速恢复健康,最终在保持核心能力的同时显著提升了“运动”(推理)速度。它的亮点在于将WER作为剪枝的直接优化目标,比传统的余弦距离更“对症下药”。但短板也很明显:本质上是剪枝+蒸馏的“旧瓶装新酒”,对极端压缩下WER的显著上升缺乏更深入的解释或更优的解决方案,更像是一个精心设计的组合拳,而非全新的武器。 📌 核心摘要 问题:基于大语言模型的文本转语音(LLM-TTS)系统性能强大,但参数量大、内存占用高、自回归解码慢,严重限制了其在实时场景和边缘设备的部署。 方法:提出了SPADE框架,结合两步策略:(i) 基于字错率重要性指标(WLI)识别并剪枝Transformer中的冗余层;(ii) 采用多层次知识蒸馏(包括Logit、潜在状态、注意力图)恢复因剪枝损失的自回归连贯性和生成质量。 创新:与通用LLM剪枝不同,本文提出了针对TTS任务的WER导向的层重要性评估(WLI),实验表明其优于余弦距离指标;其次,设计了动态目标层的蒸馏策略,使学生层能对齐教师模型中被剪枝段的最后一层表示,更有效地吸收知识。 结果:在零样本基准测试中,SPADE在保持感知质量(NMOS, SS)近乎持平的前提下,将Transformer深度减半,参数减少最高40%,VRAM使用降低最高20%,推理实时因子(RTF)提升最高1.7倍。恢复性能仅需使用原始预训练数据量的不到5%。 模型 (配置) 层数 参数量 RTF ↓ NMOS (Seed-TTS) WER (Seed-TTS) ↓ SS (Seed-TTS) NMOS (LibriTTS) WER (LibriTTS) ↓ SS (LibriTTS) CosyVoice 2 24 0.63B 0.61 3.71 ± 0.13 2.03 0.66 4.15 1.43 0.81 CosyVoice 2 + SPADE (12层) 12 0.38B 0.35 3.58 ± 0.14 2.71 0.66 4.16 1.59 0.82 CosyVoice 2 + SPADE (9层) 9 0.32B 0.33 3.55 ± 0.14 3.09 0.66 4.15 1.94 0.81 LLaSA 16 1.7B 0.82 3.37 ± 0.15 3.54 0.46 4.13 1.54 0.47 LLaSA + SPADE (8层) 8 1.3B 0.58 3.11 ± 0.14 4.20 0.41 4.06 1.88 0.43 意义:证明了通过结构化剪枝和高效蒸馏,可以构建出高质量、低延迟的紧凑型LLM-TTS模型,为实时语音生成和实际应用部署铺平道路。 局限:性能恢复仍需微调数据(尽管量少);在LLaSA上的性能下降相对明显,表明方法效果可能因模型而异;极端压缩(如9层)会导致WER显著上升,可读性/清晰度与效率的权衡需谨慎。 🏗️ 模型架构 SPADE并非提出一个新的TTS模型架构,而是一个模型压缩框架,应用于现有的LLM-TTS模型(如CosyVoice 2, LLaSA)。其流程分为两个阶段: ...

2026-04-29

SpeechMapper: Speech-To-Text Embedding Projector for LLMs

📄 SpeechMapper: Speech-To-Text Embedding Projector for LLMs #语音大模型 #预训练 #零样本 #大语言模型 #迁移学习 ✅ 7.0/10 | 前25% | #语音大模型 | #预训练 | #零样本 #大语言模型 学术质量 6.8/7 | 选题价值 6.5/2 | 复现加成 0 | 置信度 中 👥 作者与机构 第一作者:Biswesh Mohapatra (Inria Paris) 通讯作者:未说明 作者列表:Biswesh Mohapatra (Inria Paris), Marcely Zanon Boito (NAVER LABS Europe), Ioan Calapodescu (NAVER LABS Europe) 💡 毒舌点评 这篇论文的亮点在于其务实且高效的系统设计:通过将预训练阶段与LLM解耦,仅依赖嵌入层匹配,使得在消费级GPU上预训练投影器成为可能,且1K步的适应阶段就能达到强基线水平,这为资源受限团队快速接入语音能力提供了可行方案。不过,短板也明显:论文缺乏代码公开,且评估任务局限于ST和SQA,对于“Speech-to-Text Embedding Projector”这一名称所承诺的通用性,实验证据稍显单薄。 📌 核心摘要 问题:现有将语音基础模型(SFM)接入大语言模型(LLM)的方法(如联合微调)计算成本高昂,且容易在特定任务或提示上过拟合,泛化能力不足。 方法核心:提出SpeechMapper,一个两阶段的语音到LLM嵌入投影器。第一阶段(预训练)仅使用LLM的嵌入层,通过最小化投影器输出与对应文本LLM嵌入的均方误差(MSE)来学习映射,无需LLM的前向计算。第二阶段(适应)仅用1K步指令调优(IT)将预训练好的投影器连接到冻结的LLM上。 创新点:1) 解耦训练:预训练阶段独立于LLM,降低了硬件需求和计算成本。2) pad填充的MSE损失:通过向目标嵌入序列添加pad token来隐式对齐长度不匹配的语音和文本序列,避免了显式对齐器。3) 灵活的适应策略:在第二阶段通过调节MSE损失的权重σ,可以平衡零样本泛化(σ>0)与任务特定性能(σ=0)。 主要实验结果:在语音翻译(ST)和口语问答(SQA)任务上,SpeechMapper表现优异。在零样本(任务无关)设置下,其最佳变体(使用EuroLLM)在SQA上与IWSLT25竞赛最佳系统(BEST-IWSLT25-IF)持平甚至超越;在任务特定设置下,仅用1K步训练便全面超越该基线。例如,在Spoken SQuAD上,其任务特定版本准确率达87.4%,与基线持平。 任务 指标 数据集 SpeechMapper (零样本) SpeechMapper (任务特定) BEST-IWSLT25-IF Transcripts + EuroLLM ST (COMET) en-es EuroParl 79.9 85.4 83.5 85.9 ST (COMET) en-zh CoVoST2 72.0 79.9 80.7 80.0 SQA (Acc.) PartII LibriSQA 64.3 68.1 62.5 73.4 5. 实际意义:提供了一种成本效益高、可扩展的方案,用于将现有文本LLM快速赋能语音能力,且能平衡零样本通用性与任务专精性,降低了语音AI应用开发的门槛。 6. 主要局限性:1) 评估仅限于两个任务(ST和SQA),对于其作为通用“嵌入投影器”的广泛适用性证明不足。2) 在更大型或不同架构的LLM上(如Llama 3.1 8B)效果不稳定,标准差较大。3) 论文未开源代码和模型。 🏗️ 模型架构 SpeechMapper的整体架构分为三个部分:冻结的语音基础模型(SFM)、投影器(Projector)和冻结的大语言模型(LLM)。其数据流与交互过程如下: ...

2026-04-29

Spiking Attention Network: A Hybrid Neuromorphic Approach to Underwater Acoustic Localization and Zero-Shot Adaptation

📄 Spiking Attention Network: A Hybrid Neuromorphic Approach to Underwater Acoustic Localization and Zero-Shot Adaptation #声源定位 #脉冲神经网络 #注意力机制 #零样本 #鲁棒性 ✅ 7.0/10 | 前25% | #声源定位 | #脉冲神经网络 | #注意力机制 #零样本 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Quoc Thinh Vo (Drexel University, Department of Electrical and Computer Engineering) 通讯作者:David K. Han (Drexel University, Department of Electrical and Computer Engineering) 作者列表:Quoc Thinh Vo (Drexel University, Department of Electrical and Computer Engineering), David K. Han (Drexel University, Department of Electrical and Computer Engineering) 💡 毒舌点评 本文的亮点在于将生物启发的脉冲神经网络(SNN)与成熟的ResNet、Conformer架构混合,用于处理原始水声信号,避免了传统方法繁琐的特征预处理,并展示了在零样本设置下的出色泛化能力;但短板在于其核心的LIF神经元模型相对简化,且所有实验均基于单一数据集(SWellEx-96),在更多样、更复杂海洋环境下的普适性有待进一步验证。 ...

2026-04-29

Spiking Temporal-Enhanced Network for Zero-Shot Audio-Visual Learning

📄 Spiking Temporal-Enhanced Network for Zero-Shot Audio-Visual Learning #音视频 #脉冲神经网络 #零样本 #音频分类 #多模态模型 ✅ 7.0/10 | 前50% | #音频分类 | #脉冲神经网络 | #音视频 #零样本 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Ziyu Wang(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院) 通讯作者:Wenrui Li(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院) 作者列表:Ziyu Wang(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院)、Wenrui Li(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院)、Hongtao Chen(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院)、Jisheng Chu(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院)、Hengyu Man(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院)、Xiaopeng Fan(哈尔滨工业大学,鹏城实验室,哈尔滨工业大学苏州研究院) 💡 毒舌点评 亮点:论文敏锐地抓住了音视频零样本学习中“时间建模”和“能效”两大痛点,提出的STFE和ETS模块设计目标明确,且通过减少时间步长实现了可观的能耗降低。短板:模型在复杂长视频(ActivityNet)上表现出的“过拟合已见类别、损害未知类别泛化”的现象,恰恰点出了其时间建模可能“用力过猛”而牺牲了通用性,这一核心矛盾在论文中未得到充分讨论和解决。 📌 核心摘要 问题:现有音视频零样本学习(AVZSL)方法普遍存在时间线索利用不足的问题,常依赖简单的特征平均或基础脉冲神经元,无法捕捉深层时间依赖,且能效有待优化。 方法核心:提出脉冲时序增强网络(STEN)。其核心是在Spikeformer架构中集成可学习三元脉冲神经元(LTS) 和时空融合模块(STFE),并通过增强时序Spikeformer(ETS) 自适应整合相邻时间步信息。 新意:相比已有方法(如AVMST),STEN通过LTS增强特征表示能力,通过STFE联合建模时间局部动态和通道依赖,通过ETS捕获微观时序变化。同时利用脉冲神经网络(SNN)的事件驱动稀疏性,通过优化时间步长大幅降低能耗。 主要实验结果: 在VGGSound数据集上,GZSL调和平均(HM)达到8.04,比基线AVMST(7.68)提升4.7%,ZSL指标提升13.6%。 在UCF101数据集上,GZSL的HM达到34.27,比AVMST(29.91)提升14.6%,Seen类准确率大幅提升。 在ActivityNet数据集上,Seen类指标提升40.8%,但Unseen类和HM略有下降。 能效方面,与AVMST相比,SNN能耗降低41.7%,总能耗降低15.6%。 实际意义:为AVZSL任务提供了一种在保持竞争力的同时,显著降低计算能耗的解决方案,有助于将该技术部署到资源受限的边缘设备。 主要局限性:在时序更复杂、视频更长的ActivityNet数据集上,模型表现出对已见类别过拟合的倾向,牺牲了在未见类别上的泛化能力,表明其时间建模策略的稳健性有待提升。此外,论文未提及开源计划,可复现性存疑。 🏗️ 模型架构 STEN的整体架构如图1所示。其处理流程可分为四个主要阶段: 特征提取阶段:使用预训练的SeLaVi模型作为音频(Aenc)和视觉(Venc)编码器的初始化,提取初始特征。同时,每种模态还有一个独立的脉冲时序特征提取(STFE)模块,用于从原始特征中直接提取时间动态信息。 跨模态时间-语义融合阶段: 每种模态(音频a、视觉v)的编码器输出C_m与STFE输出的时序特征S_m通过交叉注意力(CA) 融合,生成时间-语义联合表示 Fts_m。这步旨在将原始特征与捕捉到的时序动态进行初步结合。 核心时序建模阶段: STFE模块:内部包含多个SNN块。每个块由线性层、批归一化和可学习三元脉冲神经元(LTS) 构成。LTS将膜电位映射为{-α, 0, α}三元输出,相比传统二进制脉冲,信息表示更丰富。STFE不使用平均池化,而是保留所有时间步的特征为3D张量,以避免信息丢失。 时空融合模块(STFM):接收STFE输出的3D时序特征张量,通过时间局部注意力(沿时间轴滑动卷积核)和通道局部注意力(沿特征维度操作),联合建模时间上的局部运动模式和特征通道间的语义相关性,得到融合特征F_{i,j}。 增强时序Spikeformer(ETS):这是一个改进的脉冲自注意力模块。它首先对输入进行脉冲层和线性投影得到Q, K, V。然后用1D卷积层分别处理Q, K, V,以自适应整合相邻时间步的信息。之后调整计算顺序为先计算K和V的关系,再与Q交互,并用脉冲神经元替换Softmax,最终输出。 最终融合与投影阶段:将前两个阶段得到的Fts_a, Fts_v和ETS融合的音频-视觉时序特征S_av输入一个跨模态Transformer,生成最终的音视频联合表示Ots_av。最后,通过投影层和重构层将该表示映射到与文本特征对齐的语义空间。 图1:STEN架构示意图。图中显示了特征提取、STFE、STFM(橙色模块)和ETS(蓝色模块)的流程,以及最终跨模态Transformer的整合。关键创新在于蓝色模块中ETS的计算顺序调整(先KV后Q)和STFM的联合时空建模。 ...

2026-04-29

StylePitcher: Generating Style-Following and Expressive Pitch Curves for Versatile Singing Tasks

📄 StylePitcher: Generating Style-Following and Expressive Pitch Curves for Versatile Singing Tasks #歌唱语音合成 #流匹配 #音频生成 #语音转换 #零样本 ✅ 7.5/10 | 前25% | #歌唱语音合成 | #流匹配 | #音频生成 #语音转换 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jingyue Huang (University of California San Diego, Smule Labs) 通讯作者:未说明 作者列表:Jingyue Huang(△University of California San Diego, ◦Smule Labs)、Qihui Yang(△University of California San Diego, ◦Smule Labs)、Fei-Yueh Chen(†University of Rochester, ◦Smule Labs)、Julian McAuley(△University of California San Diego)、Randal Leistikow(◦Smule Labs)、Perry R. Cook(◦Smule Labs)、Yongyi Zang(◦Smule Labs) 💡 毒舌点评 亮点在于它敏锐地抓住了唱歌音高曲线“既要符合乐谱,又要保留歌手个人风格”这个核心矛盾,并用一个优雅的掩码填充框架将其统一解决,体现了扎实的工程直觉和对音乐的理解。短板是,虽然实验覆盖了多个任务,但其作为“通用模块”的潜力在很大程度上依赖于下游系统本身,论文并未深入探讨在极端风格差异或复杂旋律转移场景下的鲁棒性边界。 ...

2026-04-29

Synthesized Data Selection via Score Distribution Matching for Te Reo Māori Automatic Speech Recognition

📄 Synthesized Data Selection via Score Distribution Matching for Te Reo Māori Automatic Speech Recognition #语音识别 #数据增强 #低资源 #迁移学习 #零样本 🔥 8.0/10 | 前25% | #语音识别 | #数据增强 | #低资源 #迁移学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhihan Wang(温州理工学院) 通讯作者:Ruili Wang(温州理工学院;梅西大学数学与计算科学学院) 作者列表:Zhihan Wang(温州理工学院)、Feng Hou(未说明)、Ruili Wang(温州理工学院,梅西大学数学与计算科学学院) 💡 毒舌点评 论文的亮点在于为低资源语音识别中“合成数据越多越好”这一常见误区提供了清晰、可操作的解决方案(分数分布匹配),实验对比也做得非常扎实。短板则是方法高度依赖于预训练Whisper模型自身的打分能力,若该模型对目标语言本身识别不准,整个选择策略的基础就会动摇,论文对此缺乏深入讨论。 📌 核心摘要 问题:在低资源自动语音识别(ASR)中,使用零样本TTS生成的合成数据进行微调会遇到“域不匹配”问题,即合成语音的分布与真实语音有差异,导致单纯增加合成数据量无法持续提升性能,甚至会变差。 方法核心:提出一种基于分数分布匹配的合成数据选择方法。该方法首先利用预训练的Whisper-large-v3模型为真实数据和合成数据计算字符错误率(CER)作为质量分数;然后,将真实数据的分数分布拟合为一个先验分布(Beta分布);最后,通过拒绝采样算法,从合成数据中筛选出一个子集,使其分数分布与真实数据的先验分布对齐。 创新与不同:与依赖外部预训练资源(如英语说话人嵌入、判别器)的现有方法(如Synt++, Wang et al.)不同,本方法仅依赖目标语言本身的预训练ASR模型(Whisper)进行打分,更适合资源极度匮乏的场景。同时,它显式地考虑并平衡了合成数据中不同质量样本的分布,而非简单设定质量阈值。 实验结果:在Te Reo Māori(毛利语)ASR任务上,使用真实数据(27小时)+ 经本方法筛选的合成数据(从520小时中选出约230小时)微调Whisper-large-v3,达到了最优性能:WER 21.4%, CER 9.9%。这显著优于仅使用真实数据(WER 28.3%),也优于其他所有基线方法,包括Adapter Double-way Fine-tuning(WER 22.6%, CER 11.0%)。具体结果对比见下表: 方法 测试集WER (%) 测试集CER (%) Whisper-large-v3 (无微调) 37.9 13.8 27小时真实数据 28.3 12.8 + 360小时未筛选合成数据 22.9 11.2 + 520小时未筛选合成数据 24.3 11.5 Synt++ [17] 24.6 12.2 Wang et al. [18] 23.8 11.5 Adapter Double-way Fine-tuning [19] 22.6 11.0 本文方法 (True + Score-distribution-matching) 21.4 9.9 实际意义:为低资源、濒危语言的ASR模型训练提供了一种有效且计算高效的合成数据筛选策略,能最大化利用有限的真实数据和TTS生成能力,对相关领域的研究者和工程师有直接应用价值。 主要局限性:方法的有效性严重依赖于预训练ASR模型(此处为Whisper)在目标语言上的初始性能(用于计算CER)。如果基础模型对目标语言识别很差,则CER作为质量分数的可靠性存疑。此外,论文未深入分析最终筛选出的合成数据子集(230小时)具有哪些具体特征。 🏗️ 模型架构 论文未提出新的神经网络模型架构,而是提出一个数据选择算法流程。整体流程如下: ...

2026-04-29

T-Cache: Fast Inference For Masked Generative Transformer-Based TTS Via Prompt-Aware Feature Caching

📄 T-Cache: Fast Inference For Masked Generative Transformer-Based TTS Via Prompt-Aware Feature Caching #语音合成 #实时处理 #零样本 #语音大模型 🔥 9.0/10 | 前25% | #语音合成 | #实时处理 | #零样本 #语音大模型 学术质量 6.2/7 | 选题价值 1.7/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Obed Irihose(电子科技大学信息与通信工程学院) 通讯作者:Le Zhang(电子科技大学信息与通信工程学院) 作者列表:Obed Irihose(电子科技大学信息与通信工程学院)、Le Zhang(电子科技大学信息与通信工程学院) 💡 毒舌点评 论文巧妙地将图像/音频生成领域的特征缓存技巧“移植”并针对TTS特性(提示序列稳定性、两阶段结构)进行了深度定制,实现了显著且可靠的加速,是典型的“把好钢用在刀刃上”的工程创新。不过,其创新本质是对现有技术的精巧组合与适配,而非提出新的缓存理论或生成范式,因此距离“里程碑”式突破尚有一步之遥。 📌 核心摘要 问题:基于掩码生成Transformer(MGT)的文本到语音(TTS)系统(如MaskGCT)虽然支持并行生成且质量高,但其迭代式反掩码过程需要数十步解码,导致推理计算成本高昂,难以实时部署。 方法核心:提出T-Cache,一种训练无关的插拔式缓存加速机制。其核心是通过分析发现相邻解码步骤间,提示令牌(参考语音、文本)的特征高度相似,而输入令牌特征变化显著。因此,T-Cache在注意力层和MLP层分别缓存并重用提示相关特征,仅更新输入部分特征。此外,通过存储条件与无条件分支的输出差值来缓存分类器自由引导(CFG)信息,并发现可在语义到声学(S2A)阶段跳过CFG以进一步加速。 与已有方法相比:不同于直接迁移到MGT-TTS的图像域缓存方法(如ToCa, FORA),或简单的减少解码步数,T-Cache是首个针对MGT-TTS设计的、结合了提示感知缓存、条件缓存和阶段特异性CFG优化的综合加速方案。 主要实验结果:在LibriSpeech、SeedTTS等多个数据集上,T-Cache相比基线模型(MaskGCT)实现了2.61至3.41倍的推理加速,同时在语音自然度(MOS)、说话人相似度(CSIM)等核心指标上保持相当甚至略有提升,显著优于其他迁移的缓存方法。关键消融实验证实了非线性缓存步调度、阶段CFG优化等设计的有效性。详见下表: 方法 数据集 WER↓ CSIM↑ MOS↑ Spd.↑ Baseline (T=25) LibriSpeech test-clean 9.68% 0.95 3.86 1.00× Baseline (T=10) LibriSpeech test-clean 13.86% 0.95 3.70 1.99× FORA [11] LibriSpeech test-clean 15.62% 0.95 3.69 1.89× ToCa [9] LibriSpeech test-clean 17.12% 0.95 3.54 1.62× TaylorSeer [14] LibriSpeech test-clean 17.92% 0.95 3.59 2.11× T-Cache (Ours) LibriSpeech test-clean 10.50% 0.94 3.95 2.85× Baseline (T=25) SeedTTS test-en 2.75% 0.95 3.56 1.00× Baseline (T=10) SeedTTS test-en 4.06% 0.95 3.48 2.28× T-Cache (Ours) SeedTTS test-en 3.06% 0.95 3.80 3.41× 实际意义:显著降低了MGT-TTS的推理延迟和计算开销,使其更接近实时应用的要求,对语音合成产品的端侧或云端高效部署具有直接价值。 主要局限性:论文坦承,T-Cache会增加显存占用(因为需要缓存特征),这是未来需要改进的方向。另外,在某些极端情况下(如Accent Similarity指标)可能有轻微性能下降。 🏗️ 模型架构 T-Cache本身并非一个独立模型,而是一种应用于现有MGT-TTS模型(以MaskGCT为基线)的推理加速方法。其核心思想是在模型推理的Transformer层中插入缓存模块。 ...

2026-04-29

Task Vector in TTS: Toward Emotionally Expressive Dialectal Speech Synthesis

📄 Task Vector in TTS: Toward Emotionally Expressive Dialectal Speech Synthesis #语音合成 #流匹配 #零样本 #低资源 #情感方言 ✅ 7.0/10 | 前50% | #语音合成 | #流匹配 | #零样本 #低资源 学术质量 5.8/7 | 选题价值 1.0/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:未说明(作者列表标注“Pengchao Feng1,2∗, Yao Xiao1∗”为共同第一作者) 通讯作者:Xie Chen1,2†(上海交通大学X-LANCE实验室) 作者列表:Pengchao Feng(1上海交通大学X-LANCE实验室, 2上海创新研究院),Yao Xiao(1上海交通大学X-LANCE实验室),Ziyang Ma(1上海交通大学X-LANCE实验室),Zhikang Niu(1上海交通大学X-LANCE实验室, 2上海创新研究院),Shuai Fan(1上海交通大学X-LANCE实验室),Yao Li(3上海航空电器有限公司),Sheng Wang(1上海交通大学X-LANCE实验室, 3上海航空电器有限公司),Xie Chen(1上海交通大学X-LANCE实验室, 2上海创新研究院) 💡 毒舌点评 亮点在于其“分而治之”的策略,通过独立建模再分层整合,巧妙地绕过了缺乏方言情感联合标注数据的难题,并在实验上证明了其优于简单串联或直接合并的基线。短板则是该方法的泛化能力存疑,在对另一个主流TTS框架(CosyVoice)上尝试时效果不佳,暗示其可能过度依赖于特定的F5-TTS架构特性,通用性打了折扣。 📌 核心摘要 要解决什么问题:在语音合成领域,如何在缺乏大量方言与情感联合标注数据的情况下,生成同时具有特定方言口音和丰富情感表达的语音。 方法核心是什么:提出了一种两阶段方法“分层表达向量(HE-Vector)”。第一阶段,基于F5-TTS模型,通过微调并提取“任务向量”来独立构建表示方言和情感的“表达向量(E-Vector)”。第二阶段,设计了一个“分层合并策略”,将方言E-Vector应用于模型的文本嵌入层和早期DiT块(负责音素发音),将情感E-Vector应用于后期DiT块(负责韵律语调),从而在推理时融合两种风格。 与已有方法相比新在哪里:相比于直接合并不同风格的任务向量(会导致风格干扰)或采用双阶段流水线(易造成误差累积),该方法的核心创新在于提出了基于模型层功能分工的“分层整合”机制,使得方言和情感特征能更独立、更少干扰地被建模和融合,且无需联合标注数据。 主要实验结果如何:在方言合成任务上,E-Vector增强模型(α=3.0)在8个方言上的平均MOS达到3.18,显著优于CosyVoice2(2.62)和全量微调模型(1.85)。在情感方言合成任务上,HE-Vector框架取得最佳平均MOS(2.83),优于完全合并E-Vector(2.76)、双阶段流水线(2.56)和CosyVoice2(1.87)。具体MOS对比见下表: 方法 平均MOS (方言合成) 平均MOS (情感方言合成) CosyVoice2 2.62 1.87 FT (微调) 1.85 未提供 FT-last (过度微调) 2.85 未提供 E-Vector (α=3.0) 3.18 未提供 LoRA E-Vector 2.35 未提供 Fully E-Vector 未提供 2.76 Dual-stage 未提供 2.56 HE-Vector (Ours) 未提供 2.83 实际意义是什么:为低资源甚至零样本下的复杂表达性语音合成(如方言+情感)提供了一种数据高效的解决方案,有助于方言文化遗产保护和更自然的个性化语音交互。 主要局限性是什么:E-Vector的构建基于任务向量的线性缩放,而论文分析指出风格迁移的参数变化并非严格线性;该方法在其他TTS架构(如CosyVoice)上效果不佳,表明其通用性有限;实验中使用的方言和情感数据集部分为内部数据,未完全公开。 🏗️ 模型架构 本文提出的方法(HE-Vector)是一个两阶段的框架,旨在增强预训练TTS模型(F5-TTS)以实现可控的表达性语音合成。整体架构如图1所示。 ...

2026-04-29

TASU: Text-only Alignment for Speech Understanding

📄 TASU: Text-only Alignment for Speech Understanding #语音识别 #语音大模型 #对齐 #预训练 #零样本 ✅ 7.0/10 | 前25% | #语音识别 | #对齐 | #语音大模型 #预训练 学术质量 6.0/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jing Peng(上海交通大学X-LANCE实验室,MoE人工智能重点实验室,江苏省语言计算重点实验室) 通讯作者:Kai Yu†(上海交通大学X-LANCE实验室,MoE人工智能重点实验室,江苏省语言计算重点实验室) 作者列表:Jing Peng(上海交通大学X-LANCE实验室等)、Yi Yang(上海交通大学X-LANCE实验室等)、Xu Li(思必驰科技股份有限公司)、Yu Xi(上海交通大学X-LANCE实验室等)、Quanwei Tang(苏州大学计算机科学与技术学院NLP实验室,思必驰科技股份有限公司)、Yangui Fang(华中科技大学电子信息与通信学院,思必驰科技股份有限公司)、Junjie Li(上海交通大学X-LANCE实验室等)、Kai Yu(上海交通大学X-LANCE实验室等) 💡 毒舌点评 亮点:论文巧妙地通过CTC后验模拟(CPS)将“文本-文本”对齐伪装成“语音-文本”对齐,思路新颖且实验验证了其在零样本ASR和多任务理解上的可行性,为解决语音大模型数据依赖问题提供了低成本路径。短板:尽管在MMSU上超越了几个知名模型,但其绝对准确率(40.48%)与顶尖多模态模型(如Qwen2.5-Omni的60.57%)相比仍有不小差距,表明纯文本对齐范式在捕获复杂语音语义信息上可能存在天花板。 📌 核心摘要 这篇论文旨在解决当前语音大语言模型(Speech LLMs)对齐训练依赖大规模音文配对数据、计算成本高且泛化能力有限的问题。为此,作者提出了TASU(Text-only Alignment for Speech Understanding),一种新颖的、仅使用文本数据进行跨模态对齐的范式。其核心方法包括两个部分:标签同步解码(LSD)和CTC后验模拟(CPS)。LSD用于在推理时对语音编码器输出的CTC后验进行压缩和去冗余,而CPS则在训练时将文本转录转化为模拟的“伪CTC后验”,从而仅用文本数据训练一个可训练的投影器(Projector),同时保持大语言模型(LLM)主干网络冻结。主要实验结果显示,在纯文本训练下,TASU实现了具有竞争力的零样本语音识别(在LibriSpeech上WER与使用配对数据的基线SLAM差距小于1.5%),并可作为课程学习的预训练阶段提升域泛化能力;在语音理解多任务测试中,TASU在MMSU基准上的准确率(40.32%)超越了SLAM-LLM(36.70%)、SALMONN-13B(25.84%)和GLM-4-Voice(35.51%)等模型。其实际意义在于大幅降低了语音大模型对齐阶段的数据门槛和训练成本。主要局限性在于,与当前最先进的、使用海量数据预训练的多模态模型相比,其绝对性能仍有差距,且CPS生成的伪后验与真实语音后验的分布差异有待进一步缩小。 🏗️ 模型架构 TASU模型的核心是建立一个统一的“后验接口”,用于训练和推理两个阶段,架构如下图所示。 (图1:TASU概览。训练阶段(左)仅使用文本输入;推理阶段(右)使用语音输入。) 组件与数据流: 训练阶段(仅文本): 输入:文本转录(如“Hello, this is Daniel speaking.”)。 文本编码器(Encoder Tokenizer):将文本分词并转换为ID序列。 CTC后验模拟(CPS)模块:这是核心创新之一。CPS将干净的文本ID序列(one-hot向量)转化为带有噪声的“伪CTC后验序列”。该过程模拟了真实CTC输出的特性(如空白帧、重复),具体包括随机标签平滑、随机删除和随机插入三个随机阶段。 可训练投影器(Projector):一个Linear-SiLU-Linear模块,将伪CTC后验映射到LLM的输入空间。仅投影器的参数在训练中更新。 冻结的大语言模型(LLM):接收投影器输出的特征,生成输出(如下一个词预测)。LLM参数全程冻结。 推理阶段(语音): 输入:原始语音波形。 语音编码器(Audio Encoder):论文使用SenseVoice-Small,将语音编码为隐藏状态,再经过CTC层得到真实的CTC后验序列。 标签同步解码(LSD)模块:这是另一个核心创新。LSD对真实CTC后验进行压缩,包括两步:(1) 空白帧移除:丢弃空白概率超过阈值τ的帧;(2) 连续帧合并:将连续相同符号的帧向量平均,形成一个紧凑的后验向量。此过程实现了约6倍的下采样,保留语义信息并去除冗余。 可训练投影器(Projector):与训练阶段相同,将LSD处理后的真实CTC后验映射到LLM输入空间。其权重已在文本训练阶段学得。 冻结的LLM:接收投影器输出,生成文本输出(如转录结果或对语音指令的理解回答)。 关键设计选择与动机: ...

2026-04-29

Thinking While Listening: Simple Test Time Scaling for Audio Classification

📄 Thinking While Listening: Simple Test Time Scaling for Audio Classification #音频分类 #预训练 #测试时缩放 #大语言模型 #零样本 ✅ 6.5/10 | 前50% | #音频分类 | #测试时缩放 | #预训练 #大语言模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Prateek Verma(斯坦福大学电气工程系) 通讯作者:未说明 作者列表:Prateek Verma(斯坦福大学电气工程系)、Mert Pilanci(斯坦福大学电气工程系) 💡 毒舌点评 本文将LLM领域的“测试时缩放”概念移植到音频分类,思路清晰,用轻量级的GPT-2微调击败百亿参数大模型的结果也颇具启发性。但遗憾的是,论文在方法细节的深度打磨和与最新技术的全面比较上显得有些“想得不够深”,比如缺乏不同音频编码器、不同聚合策略的系统消融,更像是一个概念验证报告而非坚实的技术突破。 📌 核心摘要 问题:论文旨在探索如何将大型语言模型中的“推理”和“测试时缩放”能力引入音频分类任务,在模型权重固定的情况下,仅通过增加推理时的计算来提升性能。 方法核心:提出“边听边想”框架。首先,利用预训练的音频模型(如AST, YAMNet)对输入音频进行补丁级(如500ms)的因果预测,通过多次采样为每个补丁生成一个包含类别和置信度的“推理轨迹”。然后,将这个轨迹输入一个冻结的大语言模型(如GPT-2, GPT-OSS-20B),利用其推理能力聚合轨迹信息,做出最终分类。 与已有方法相比新在哪里:传统音频分类管道(如AST)直接输出单个概率向量。本文方法在推理时构建了动态的、基于证据累积的“推理链”,并将分类任务转化为LLM可以处理的序列推理问题。其创新在于将音频模型的输出(而非原始音频)作为LLM的推理输入,并利用测试时缩放来提升性能。 主要实验结果:在ESC-50数据集(单标签)上,冻结的AST模型通过增加采样轨迹长度(从1到32)并用GPT-2聚合,准确率从79.3%提升至88.3%,接近全量微调的88.8%。在FSD-50K数据集(多标签)上,增加采样轨迹长度同样能持续提升AUC。论文中关键实验结果表格如下: 表1: ESC-50数据集上,基于YAMNet骨干网络,不同采样长度下零样本文本推理模型的准确率对比 模型 采样长度/输出预测 1 2 4 16 GPT-OSS 20B 53.5 58.75 57.6 61.25 Qwen-3 14B 52.3 55.5 57.2 54.25 表2: ESC-50数据集上,使用不同温度/采样轨迹长度,冻结AST骨干网络与GPT-2的准确率对比 ...

2026-04-29