Syncspeech: Efficient and Low-Latency Text-to-Speech Based on Temporal Masked Transformer

📄 Syncspeech: Efficient and Low-Latency Text-to-Speech Based on Temporal Masked Transformer #语音合成 #自回归模型 #流式处理 #预训练 #多语言 ✅ 7.5/10 | 前25% | #语音合成 | #自回归模型 | #流式处理 #预训练 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhengyan Sheng(中国科学技术大学) 通讯作者:Liping Chen(中国科学技术大学) 作者列表:Zhengyan Sheng(中国科学技术大学),Zhihao Du(未说明具体机构,标注为独立研究者),Shiliang Zhang(未说明具体机构,标注为独立研究者),Zhijie Yan(未说明具体机构,标注为独立研究者),Liping Chen(中国科学技术大学) 💡 毒舌点评 SyncSpeech 巧妙地将自回归模型的“时序感”与非自回归模型的“并行力”结合,通过一个统一的TMT框架在低延迟和高效率上取得了显著突破,特别是在中文场景下效果惊艳。不过,其语音质量本身并未超越已有的顶尖AR模型(如CosyVoice2),创新更多体现在生成范式的效率优化而非合成质量的绝对提升,且实验场景相对单一。 🔗 开源详情 代码:论文提供了项目主页链接(https://SyncSpeech.github.io/),其中包含代码链接。 模型权重:论文中未提及是否公开预训练模型权重。 数据集:使用了公开的LibriTTS数据集和未公开的内部中文数据集。未说明内部数据集获取方式。 Demo:论文主页应提供在线演示(Speech samples are available at…)。 复现材料:论文详细描述了模型架构、损失函数、训练策略(包括两阶段训练)、关键超参数(q, chunk size, Top-k)和硬件环境,复现信息较充分。 引用的开源项目: Montreal Forced Aligner (MFA) 用于对齐。 CosyVoice2:作为基础,用于语音词元器、语音解码器(条件流匹配解码器+HiFi-GAN)。 Llama 2:TMT的架构基础。 📌 核心摘要 问题:现有文本到语音(TTS)模型面临两难:自回归(AR)模型生成效率低,而非自回归(NAR)模型因无序生成导致首包延迟高,难以用于流式场景。 方法核心:提出SyncSpeech模型和Temporal Masked Transformer(TMT)范式。TMT在训练时通过随机截断和掩码,模拟接收流式文本并预测对应语音片段;推理时,每收到一个文本词(BPE token),即可一步并行生成其对应的全部语音token及下一个文本词的时长,实现“文本同步”生成。 与已有方法不同:TMT将AR模型的有序生成与NAR模型的并行预测统一在一个解码步骤中。其时间复杂度从与语音序列长度T线性相关(AR)降低为与文本序列长度L线性相关(L≪T),从而大幅提升效率并降低延迟。此外,引入了高概率掩码预训练和混合注意力机制(结合因果与双向)。 主要实验结果:在LibriSpeech(英文)和SeedTTS(中文)基准上,SyncSpeech在语音质量(WER, SS, MOS)上与强AR基线CosyVoice2持平。关键突破在于延迟和效率: 首包延迟(FPL-A):比AR模型分别降低 3.7倍(英文) 和 5.8倍(中文)。 实时率(RTF):比AR模型分别提升 6.4倍(英文) 和 8.8倍(中文)。 流式设置下(FPL-L),在假设接入Qwen-7B LLM时,延迟优势更为明显。 实际意义:为构建与大语言模型无缝对接、支持超低延迟交互的语音合成系统提供了一个高效基础架构,有望推动实时语音助手、辅助通信等应用的发展。 主要局限性:语音自然度与音色相似性相较于最强基线无提升;评估主要在标准数据集上进行,未验证在嘈杂环境、多样化风格或极端低资源场景下的表现;依赖上游的强制对齐工具。 🏗️ 模型架构 SyncSpeech采用两阶段架构:文本到词元(Text-to-Token)模型和词元到语音(Token-to-Speech)模型。核心创新在于前者提出的TMT。 ...

2026-04-29

SynParaSpeech: Automated Synthesis of Paralinguistic Datasets for Speech Generation and Understanding

📄 SynParaSpeech: Automated Synthesis of Paralinguistic Datasets for Speech Generation and Understanding #语音合成 #数据集 #数据增强 #语音活动检测 ✅ 7.5/10 | 前25% | #语音合成 | #数据增强 | #数据集 #语音活动检测 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Bingsong Bai(北京邮电大学人工智能学院), Qihang Lu(北京邮电大学人工智能学院), Wenbing Yang(北京邮电大学人工智能学院)(论文标注为并列第一作者) 通讯作者:Ya Li(北京邮电大学人工智能学院), Jun Gao(Hello Group Inc.) 作者列表: Bingsong Bai(北京邮电大学人工智能学院) Qihang Lu(北京邮电大学人工智能学院) Wenbing Yang(北京邮电大学人工智能学院) Zihan Sun(Hello Group Inc.) Yueran Hou(Hello Group Inc.) Peilei Jia(Hello Group Inc.) Songbai Pu(Hello Group Inc.) Ruibo Fu(中国科学院自动化研究所) Yingming Gao(北京邮电大学人工智能学院) Ya Li(北京邮电大学人工智能学院) Jun Gao(Hello Group Inc.) 💡 毒舌点评 这篇论文的亮点在于构建了一条颇为精巧的“副语言数据自动化工厂”流水线,把ASR投票、LLM“加标点”、语音转换“换音色”等技术模块组装得很有条理,并通过扎实的实验证明了用这套流水线生产出的数据集确实好用。其短板在于,这条流水线本身是“站在巨人肩膀上”的工程集成,核心的算法创新性相对有限;而且,用合成数据训练的模型,其生成的“副语言”是否真正捕捉到了人类情感的细微之处,可能还需在更复杂的交互场景中打个问号。 ...

2026-04-29

Synthcloner: Synthesizer-Style Audio Transfer via Factorized Codec with ADSR Envelope Control

📄 Synthcloner: Synthesizer-Style Audio Transfer via Factorized Codec with ADSR Envelope Control #音频生成 #解耦表征学习 #因子分解 #合成器 #音频迁移 🔥 8.5/10 | 前25% | #音频生成 | #解耦表征学习 | #因子分解 #合成器 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 1.0 | 置信度 高 👥 作者与机构 第一作者:Jeng-Yue Liu(国立台湾大学,中央研究院,卡内基梅隆大学) 通讯作者:未说明(论文标注“Jeng-Yue Liu1,2,3∗, Ting-Chao Hsu1∗”为共同第一作者,未明确通讯作者) 作者列表:Jeng-Yue Liu(国立台湾大学,中央研究院,卡内基梅隆大学)、Ting-Chao Hsu(国立台湾大学)、Yen-Tung Yeh(国立台湾大学)、Li Su(中央研究院)、Yi-Hsuan Yang(国立台湾大学) 💡 毒舌点评 论文直击合成器音频迁移中“包络控制”这个长期被忽略的痛点,并给出了一个从数据集到模型的完整解决方案,消融实验清晰地证明了显式建模ADSR的必要性,技术路线扎实。然而,其核心依赖的“音色”定义(从平稳区域提取one-shot)和数据集构建(依赖特定商业软件Serum及其预设)可能限制了模型对真实世界复杂合成器声音的泛化能力,使得“通用合成器迁移”的承诺打了一点折扣。 🔗 开源详情 代码: 论文提供了代码仓库链接:https://buffett0323.github.io/synthcloner/。 模型权重: 论文明确提到提供了模型检查点(model checkpoint),可通过上述链接获取。 数据集: 论文提出了SynthCAT数据集,并说明了其构成和渲染管线,但具体下载方式需查阅提供的链接或项目主页。 Demo: 论文提供了音频示例(audio examples)链接。 复现材料: 论文给出了详细的训练细节(实现框架、优化器、学习率、损失函数及权重、批量大小、训练步数、硬件),超参数(RVQ配置、音频段长)也已说明。 论文中引用的开源项目: 引用了audiotools(用于计算MSTFT)、torchcrepe(用于提取F0)等开源工具。模型架构灵感来源于FACodec和NANSY。 论文中未提及开源计划: 论文未提及。 📌 核心摘要 本文针对合成器风格音频迁移(SAT)任务,指出现有方法缺乏对ADSR包络(声音的时域动态)的显式控制。为此,作者提出了两个核心贡献:1)SynthCloner,一个因子分解编解码器模型,将音频解耦为ADSR包络、音色(时不变频谱特征)和内容(音高序列)三个独立属性,并支持对它们的独立控制和迁移;2)SynthCAT,一个通过系统化渲染流程构建的大规模合成器数据集,覆盖了250种音色、120种ADSR包络和100个MIDI序列的笛卡尔积,总计约3M样本。实验表明,在SynthCAT数据集上,SynthCloner在客观指标(多尺度STFT损失、对数RMS距离、F0 RMSE)和主观评估(音色相似度、ADSR包络相似度、内容相似度MOS)上均显著优于SS-VAE和CTD等基线模型。消融实验证实了显式ADSR建模对于高保真迁移至关重要。该工作为电子音乐制作提供了新的自动化工具,但其模型和数据集目前聚焦于单声道基础合成器声音,尚未涵盖LFO等复杂调制效果。 ...

2026-04-29

Synthesized Data Selection via Score Distribution Matching for Te Reo Māori Automatic Speech Recognition

📄 Synthesized Data Selection via Score Distribution Matching for Te Reo Māori Automatic Speech Recognition #语音识别 #数据增强 #低资源 #迁移学习 #零样本 🔥 8.0/10 | 前25% | #语音识别 | #数据增强 | #低资源 #迁移学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zhihan Wang(温州理工学院) 通讯作者:Ruili Wang(温州理工学院;梅西大学数学与计算科学学院) 作者列表:Zhihan Wang(温州理工学院)、Feng Hou(未说明)、Ruili Wang(温州理工学院,梅西大学数学与计算科学学院) 💡 毒舌点评 论文的亮点在于为低资源语音识别中“合成数据越多越好”这一常见误区提供了清晰、可操作的解决方案(分数分布匹配),实验对比也做得非常扎实。短板则是方法高度依赖于预训练Whisper模型自身的打分能力,若该模型对目标语言本身识别不准,整个选择策略的基础就会动摇,论文对此缺乏深入讨论。 🔗 开源详情 代码:论文中提供了代码仓库链接:https://github.com/zwan074/score-distribution-matching。 模型权重:未提及公开本文中使用的Zero-Voice TTS模型权重或最终微调的ASR模型权重。 数据集:未提及是否公开其自行收集并标注的27小时Te Reo Māori语音数据集。 Demo:未提供在线演示。 复现材料:提供了核心算法代码链接。训练超参数(如学习率、batch size)在论文中有说明。但未提供完整的训练配置文件、模型检查点或复现所需的详细步骤。 论文中引用的开源项目:主要依赖预训练模型Whisper-large-v3。 📌 核心摘要 问题:在低资源自动语音识别(ASR)中,使用零样本TTS生成的合成数据进行微调会遇到“域不匹配”问题,即合成语音的分布与真实语音有差异,导致单纯增加合成数据量无法持续提升性能,甚至会变差。 方法核心:提出一种基于分数分布匹配的合成数据选择方法。该方法首先利用预训练的Whisper-large-v3模型为真实数据和合成数据计算字符错误率(CER)作为质量分数;然后,将真实数据的分数分布拟合为一个先验分布(Beta分布);最后,通过拒绝采样算法,从合成数据中筛选出一个子集,使其分数分布与真实数据的先验分布对齐。 创新与不同:与依赖外部预训练资源(如英语说话人嵌入、判别器)的现有方法(如Synt++, Wang et al.)不同,本方法仅依赖目标语言本身的预训练ASR模型(Whisper)进行打分,更适合资源极度匮乏的场景。同时,它显式地考虑并平衡了合成数据中不同质量样本的分布,而非简单设定质量阈值。 实验结果:在Te Reo Māori(毛利语)ASR任务上,使用真实数据(27小时)+ 经本方法筛选的合成数据(从520小时中选出约230小时)微调Whisper-large-v3,达到了最优性能:WER 21.4%, CER 9.9%。这显著优于仅使用真实数据(WER 28.3%),也优于其他所有基线方法,包括Adapter Double-way Fine-tuning(WER 22.6%, CER 11.0%)。具体结果对比见下表: 方法 测试集WER (%) 测试集CER (%) Whisper-large-v3 (无微调) 37.9 13.8 27小时真实数据 28.3 12.8 + 360小时未筛选合成数据 22.9 11.2 + 520小时未筛选合成数据 24.3 11.5 Synt++ [17] 24.6 12.2 Wang et al. [18] 23.8 11.5 Adapter Double-way Fine-tuning [19] 22.6 11.0 本文方法 (True + Score-distribution-matching) 21.4 9.9 实际意义:为低资源、濒危语言的ASR模型训练提供了一种有效且计算高效的合成数据筛选策略,能最大化利用有限的真实数据和TTS生成能力,对相关领域的研究者和工程师有直接应用价值。 主要局限性:方法的有效性严重依赖于预训练ASR模型(此处为Whisper)在目标语言上的初始性能(用于计算CER)。如果基础模型对目标语言识别很差,则CER作为质量分数的可靠性存疑。此外,论文未深入分析最终筛选出的合成数据子集(230小时)具有哪些具体特征。 🏗️ 模型架构 论文未提出新的神经网络模型架构,而是提出一个数据选择算法流程。整体流程如下: ...

2026-04-29

Synthetic Data Domain Adaptation for ASR via LLM-Based Text and Phonetic Respelling Augmentation

📄 Synthetic Data Domain Adaptation for ASR via LLM-Based Text and Phonetic Respelling Augmentation #语音识别 #领域适应 #数据增强 #大语言模型 #少样本 🔥 8.0/10 | 前25% | #语音识别 | #领域适应 | #数据增强 #大语言模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Natsuo Yamashita(Hitachi, Ltd.) 通讯作者:未说明 作者列表:Natsuo Yamashita(Hitachi, Ltd.), Koichi Nagatsuka(Hitachi, Ltd.), Hiroaki Kokubo(Hitachi, Ltd.), Kota Dohi(Hitachi, Ltd.), Tuan Vu Ho(Hitachi, Ltd.) 💡 毒舌点评 亮点: 该框架设计得非常系统和实用,特别是“先海量生成再精细过滤”的文本增强思路,以及巧妙地将发音变异性建模从声学后处理提前到文本输入阶段(PRA),直击合成数据训练的痛点。 短板: 论文所有实验(包括PRA的验证)均基于合成生成的训练数据和相对干净的测试集,缺乏在真实世界复杂声学环境(如强噪声、混响)下的验证,其宣称的“提升现实世界鲁棒性”尚需更严苛条件的检验。 🔗 开源详情 代码: 论文提供项目页面链接 (https://natsuooo.github.io/llm-asr-augmentation/),声称将发布提示、过滤代码。论文中未直接提供代码仓库链接。 模型权重: 论文未提及公开其微调后的ASR模型权重。 数据集: 论文使用了四个公开数据集(ATCOSIM, ATCO2, Court, MedSyn),并给出了链接或引用。其生成的合成数据未提及是否公开。 Demo: 论文未提及提供在线演示。 复现材料: 论文给出了非常详细的实验设置,包括生成模型、超参数、训练策略、硬件等,复现指引性强。音频样本在项目页面提供。 论文中引用的开源项目: Whisper (ASR模型), Kokoro-TTS (TTS引擎), GPT-2 (困惑度计算), Qwen3-Embedding-8B (句向量), MUSS (选择算法)。 总体开源情况: 论文承诺开源部分核心工具(提示、代码、音频),但不包含核心产物(微调模型),属于“部分开源”。 📌 核心摘要 这篇论文旨在解决端到端ASR模型在领域特定数据上性能下降的问题,因为收集目标领域的文本和语音资源成本高昂。论文提出一个完全基于合成数据的领域自适应框架,核心包括两个创新组件:(1)一个基于大语言模型(LLM)的多阶段文本增强管道,通过多语言提示、多LLM生成和基于三重目标(词汇类型-标记比TTR、困惑度、领域术语覆盖)的过滤策略,生成兼具领域相关性和多样性的文本;(2)一种新颖的语音拼写增强(PRA)方法,使用LLM生成反映真实发音变异(如同化、省略、替换)的正字法伪拼写,并将其作为TTS输入,从而在文本层面注入自然的发音多样性。与传统在声学特征上操作的SpecAugment不同,PRA能生成更接近真实世界发音变异性的合成语音。实验在ATCOSIM、ATCO2(空管)、Court(法庭)和MedSyn(医疗)四个领域数据集上进行。主要结果显示,仅用其提出的文本增强管道(P1-1)微调Whisper-large-v3-turbo,相比基线DAS(B1)在所有数据集上均显著降低了词错误率(WER)、领域词错误率(B-WER)和非领域词错误率(U-WER)。例如在Court数据集上,WER从20.0降至17.8,B-WER从72.8大幅降至36.8。在此基础上结合PRA(P2),能进一步获得最佳或相当的性能,如在ATCO2上将WER从47.1降至41.1。该工作的实际意义在于提供了一套可扩展、低成本的ASR领域自适应方案,无需真实领域数据即可提升模型在特定垂直领域的性能。主要局限性是其评估主要依赖于合成测试数据(MedSyn)或相对干净的真实数据(ATC、Court),缺乏对复杂真实声学环境的广泛测试。 ...

2026-04-29

Synthetic yet Striking? Assessing Vocal Charisma in TTS via Perceptual and Algorithmic Measures

📄 Synthetic yet Striking? Assessing Vocal Charisma in TTS via Perceptual and Algorithmic Measures #语音合成 #模型评估 #语音情感识别 #偏见与公平 ✅ 7.5/10 | 前25% | #语音合成 | #模型评估 | #语音情感识别 #偏见与公平 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Lena Conle(柏林工业大学 语言与交流研究所) 通讯作者:未说明(论文中未明确指定通讯作者,Oliver Niebuhr为最后作者) 作者列表:Lena Conle(柏林工业大学 语言与交流研究所)、Io Valls-Ratés(南丹麦大学 工业电子中心)、Oliver Niebuhr(南丹麦大学 工业电子中心) 💡 毒舌点评 这篇论文的亮点在于它像一位严谨的“声学测量员”,将针对真人魅力的复杂声学量表(PICSA)成功校准并应用于测量“合成嗓音”的魅力潜力,证实了人类感知框架的跨领域一致性。但短板在于它对合成语音的“阿喀琉斯之踵”——那些破坏自然感的合成伪影(如拼接瑕疵、不自然音色)——仅做了定性观察,未能将其纳入量化模型,导致PASCAL分数系统性高估,削弱了其作为“完美评估器”的说服力。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:未提及。用于验证PICSA的参考数据库(4000+说话者)未公开。 Demo:未提及。 复现材料:提供了TTS输入的文本内容(附录)。但未提供生成的TTS音频文件,也未提供PICSA算法的详细实现参数或工具。 论文中引用的开源项目:提到了使用MaryTTS系统(开源),但未提供其在研究中使用的具体版本或配置。其余均为商业平台(Google, Amazon, Microsoft, Apple)或未开源的系统。 总结:论文中未提及开源计划。复现该研究需要自行获取多个商业TTS平台的API,并独立实施或获取PICSA算法,门槛较高。 📌 核心摘要 问题:TTS系统已高度自然,但其“社交有效性”(如魅力)仍有欠缺。如何量化评估和提升合成语音的魅力?自然语音的魅力感知模型能否直接迁移到TTS语音? 方法:核心是使用已为自然语音开发的PICSA算法,该算法提取16个韵律-声学特征并计算一个复合分数(PASCAL分数,0-100)。研究者用PICSA评估了12个TTS声音(来自5个平台,含男、女、中性声音),并进行了包含22名听众的感知实验,对每个声音在“有魅力”及相关属性上评分。 新意:首次系统性地将基于自然语音的量化魅力模型(PICSA)应用于TTS语音评估,并结合感知实验,验证其有效性并揭示感知偏差(特别是性别偏见)。 主要结果: 高相关性:PASCAL分数与听众的“魅力”评分高度正相关(r=.897, p<.001),解释了超过80%的方差。见图1。 感知框架一致:听众对TTS魅力的感知与对自然语音的感知一致,主要与“热情”、“说服力”、“自信”强相关(r > .95)。 性别偏见:人类听众将男性感知TTS评为更有魅力(M=33.4 vs M=21.8,p=.027, Cohen’s d=0.88),但PICSA算法本身对男女声音的评分无显著差异(M=55.2 vs M=54.1),表明算法避免了人类听众的偏见。 系统高估:PASCAL分数普遍高于人类评分(见图1中虚线与点线的偏离),作者归因于算法无法感知合成伪影。 意义:为TTS魅力建模提供了经过验证的量化评估工具(PICSA),明确了与魅力相关的核心韵律特征,并警示了单纯依赖声学模型无法消除感知层面的性别偏见。 局限:未将合成伪影(自然度)的量化评估纳入模型;实验仅使用一种语义中性的文本,结论的普适性待验证;对算法无法处理的声学特征(如音素对比度)讨论不足。 🏗️ 模型架构 本文的核心“模型”是PICSA (Perception-Integrated Charismatic Speech Analysis) 算法,它并非一个端到端的神经网络,而是一个基于语音学知识构建的特征工程与评分系统。 ...

2026-04-29

T-Cache: Fast Inference For Masked Generative Transformer-Based TTS Via Prompt-Aware Feature Caching

📄 T-Cache: Fast Inference For Masked Generative Transformer-Based TTS Via Prompt-Aware Feature Caching #语音合成 #实时处理 #零样本 #语音大模型 🔥 9.0/10 | 前25% | #语音合成 | #实时处理 | #零样本 #语音大模型 学术质量 6.2/7 | 选题价值 1.7/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Obed Irihose(电子科技大学信息与通信工程学院) 通讯作者:Le Zhang(电子科技大学信息与通信工程学院) 作者列表:Obed Irihose(电子科技大学信息与通信工程学院)、Le Zhang(电子科技大学信息与通信工程学院) 💡 毒舌点评 论文巧妙地将图像/音频生成领域的特征缓存技巧“移植”并针对TTS特性(提示序列稳定性、两阶段结构)进行了深度定制,实现了显著且可靠的加速,是典型的“把好钢用在刀刃上”的工程创新。不过,其创新本质是对现有技术的精巧组合与适配,而非提出新的缓存理论或生成范式,因此距离“里程碑”式突破尚有一步之遥。 🔗 开源详情 代码:提供了代码仓库链接:https://tksavy.github.io/tcache/。 模型权重:论文提到基于开源MaskGCT实现,但未明确T-Cache自身是否发布独立权重。暗示代码仓库可能包含使用T-Cache加速后的模型或脚本。 数据集:评估使用了公开的LibriSpeech, SeedTTS, ESD, L2-Arctic等数据集,但未说明T-Cache自身是否包含或发布新数据集。 Demo:提供了在线音频样例的链接:https://tksavy.github.io/tcache/。 复现材料:论文给出了关键超参数(T, N, τ)、硬件环境(RTX 3090)和评估指标,具有较好的复现指导性。 论文中引用的开源项目:引用了MaskGCT作为基线实现,以及DeepCache, LazyMAR, AudioCache等相关缓存工作的代码或思想。 论文中提及了代码和音频样例的获取地址,因此有开源计划。 📌 核心摘要 问题:基于掩码生成Transformer(MGT)的文本到语音(TTS)系统(如MaskGCT)虽然支持并行生成且质量高,但其迭代式反掩码过程需要数十步解码,导致推理计算成本高昂,难以实时部署。 方法核心:提出T-Cache,一种训练无关的插拔式缓存加速机制。其核心是通过分析发现相邻解码步骤间,提示令牌(参考语音、文本)的特征高度相似,而输入令牌特征变化显著。因此,T-Cache在注意力层和MLP层分别缓存并重用提示相关特征,仅更新输入部分特征。此外,通过存储条件与无条件分支的输出差值来缓存分类器自由引导(CFG)信息,并发现可在语义到声学(S2A)阶段跳过CFG以进一步加速。 与已有方法相比:不同于直接迁移到MGT-TTS的图像域缓存方法(如ToCa, FORA),或简单的减少解码步数,T-Cache是首个针对MGT-TTS设计的、结合了提示感知缓存、条件缓存和阶段特异性CFG优化的综合加速方案。 主要实验结果:在LibriSpeech、SeedTTS等多个数据集上,T-Cache相比基线模型(MaskGCT)实现了2.61至3.41倍的推理加速,同时在语音自然度(MOS)、说话人相似度(CSIM)等核心指标上保持相当甚至略有提升,显著优于其他迁移的缓存方法。关键消融实验证实了非线性缓存步调度、阶段CFG优化等设计的有效性。详见下表: 方法 数据集 WER↓ CSIM↑ MOS↑ Spd.↑ Baseline (T=25) LibriSpeech test-clean 9.68% 0.95 3.86 1.00× Baseline (T=10) LibriSpeech test-clean 13.86% 0.95 3.70 1.99× FORA [11] LibriSpeech test-clean 15.62% 0.95 3.69 1.89× ToCa [9] LibriSpeech test-clean 17.12% 0.95 3.54 1.62× TaylorSeer [14] LibriSpeech test-clean 17.92% 0.95 3.59 2.11× T-Cache (Ours) LibriSpeech test-clean 10.50% 0.94 3.95 2.85× Baseline (T=25) SeedTTS test-en 2.75% 0.95 3.56 1.00× Baseline (T=10) SeedTTS test-en 4.06% 0.95 3.48 2.28× T-Cache (Ours) SeedTTS test-en 3.06% 0.95 3.80 3.41× 实际意义:显著降低了MGT-TTS的推理延迟和计算开销,使其更接近实时应用的要求,对语音合成产品的端侧或云端高效部署具有直接价值。 主要局限性:论文坦承,T-Cache会增加显存占用(因为需要缓存特征),这是未来需要改进的方向。另外,在某些极端情况下(如Accent Similarity指标)可能有轻微性能下降。 🏗️ 模型架构 T-Cache本身并非一个独立模型,而是一种应用于现有MGT-TTS模型(以MaskGCT为基线)的推理加速方法。其核心思想是在模型推理的Transformer层中插入缓存模块。 ...

2026-04-29

T-Mimi: A Transformer-Based Mimi Decoder for Real-Time On-Phone TTS

📄 T-Mimi: A Transformer-Based Mimi Decoder for Real-Time On-Phone TTS #语音合成 #自回归模型 #端到端 #量化 #实时处理 ✅ 7.0/10 | 前50% | #语音合成 | #自回归模型 | #端到端 #量化 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Haibin Wu(Meta, USA) 通讯作者:未说明 作者列表:Haibin Wu(Meta, USA)、Bach Viet Do(Meta, USA)、Naveen Suda(Meta, USA)、Julian Chan(Meta, USA)、Madhavan C R(Meta, USA)、Gene-Ping Yang(Meta, USA)、Yi-Chiao Wu(Meta, USA)、Naoyuki Kanda(Meta, USA)、Yossef Adi(Meta, USA)、Xin Lei(Meta, USA)、Yue Liu(Meta, USA)、Florian Metze(Meta, USA)、Yuzong Liu(Meta, USA) 💡 毒舌点评 亮点:本文直击移动端实时语音合成的核心痛点——解码器延迟,通过将Mimi解码器中的反卷积层替换为Transformer层,实现了令人印象深刻的9.6倍延迟降低(42.1ms→4.4ms),成功让“真·实时”TTS在手机上成为可能,工程优化效果立竿见影。短板:其核心创新更多是架构的“平移”而非“突破”,原创性有限;并且实验仅在三星Galaxy S22上进行,未讨论其他硬件平台或极端低资源设备的适配性,通用性有待验证。 ...

2026-04-29

TAG: Structured Temporal Audio Generation via LLM-Guided Manual Scription and Control

📄 TAG: Structured Temporal Audio Generation via LLM-Guided Manual Scription and Control #音频生成 #大语言模型 #扩散模型 #免训练方法 #注意力机制 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #大语言模型 #免训练方法 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Hanwen Zhang(USC,美国) 通讯作者:Shuhui Wang(ICT, CAS,中国);Wei Yang(HUST,中国) 作者列表: Hanwen Zhang(USC,美国) Jinshen Zhang(HUST,中国) Cong Zhang(UCAS,中国) Shuhui Wang(ICT, CAS,中国) Wei Yang(HUST,中国) 💡 毒舌点评 亮点:该工作最大的价值在于提出了一个“即插即用”的免训练框架,通过操纵已有音频生成模型的注意力图来实现精确的时间控制,巧妙地将语言理解的复杂性与生成模型的控制分离。短板:其性能高度依赖于作为“大脑”的LLM的指令遵循能力和基础生成模型的预训练质量,论文未能充分分析这种依赖性带来的边界情况或失效模式。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开的TAG框架自身或微调后的基础模型权重。 数据集:实验使用公开的Audiocaps和AudioCondition数据集,但论文未提供数据处理脚本或增强细节。 Demo:未提及在线演示。 复现材料:未提供详细的训练细节(针对基础模型)、配置文件、检查点或附录说明。 论文中引用的开源项目:引用了TANGO2, Stable Audio Open等基础模型,但未说明TAG框架如何具体集成这些模型的代码。 📌 核心摘要 本文针对现有文本到音频生成方法在生成具有复杂时间结构的音频时面临的挑战,提出了一种名为TAG的两阶段框架。问题:现有方法独立构建结构化信息,缺乏灵活性,且现有时间控制方法计算成本高或适应性有限。方法核心:第一阶段利用大语言模型作为推理器和规划器,将复杂文本提示解析为结构化的“音频生成手册”;第二阶段是一个免训练的生成框架,通过对扩散模型的交叉注意力图进行动态、自适应的调制,实现精确的时间控制。新意:相比独立于模型构建结构或需要重新训练的方法,TAG将LLM的语义规划能力与对现有模型注意力的无损操作相结合,且可轻松集成到各种基于注意力的扩散模型中(如UNet和DiT架构)。实验结果:在Audiocaps数据集上,TAG在保持或提升音频质量(FAD, CLAP)的同时,显著提升了文本-音频对齐度。在AudioCondition数据集上的时间控制评估表明,TAG在事件基指标(Eb)和宏观F1(At)上大幅超越了基线模型和先前的SOTA方法,例如,Stable Audio Open + TAG在Eb上达到47.21(基线8.13),At达到74.77(基线56.96)。实际意义:为可定制、时间结构精确的音频生成提供了一个高效、通用且易于部署的解决方案。局限性:方法的上限受限于基础生成模型的能力和LLM对复杂指令的解析精度;免训练的控制方式可能在某些极端场景下对原始生成分布造成干扰。 ...

2026-04-29

TAGARELA - A Portuguese Speech Dataset from Podcasts

📄 TAGARELA - A Portuguese Speech Dataset from Podcasts #语音识别 #语音合成 #数据集 #预训练 #低资源 ✅ 7.0/10 | 前25% | #语音识别 #语音合成 | #预训练 | #语音识别 #语音合成 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Frederico Santos de Oliveira(Federal University of Mato Grosso (UFMT)) 通讯作者:未说明 作者列表:Frederico Santos de Oliveira (UFMT), Lucas Rafael Stefanel Gris (UFG), Alef Iury Siqueira Ferreira (UFG), Augusto Seben da Rosa (UNESP), Alexandre Costa Ferro Filho (UFG), Edresson Casanova (NVIDIA), Christopher Dane Shulby (Elsa Speak), Rafael Teixeira Sousa (UFMT), Diogo Fernandes Costa Silva (UFG), Anderson da Silva Soares (UFG), Arlindo Rodrigues Galvão Filho (UFG) 💡 毒舌点评 这篇论文在解决“数据饥饿”问题上做得非常扎实,为葡萄牙语社区贡献了一个规模空前(近9000小时)且处理精细的语音数据集,其多阶段处理流水线的工程设计体现了对实际数据挑战的深刻理解。然而,其核心创新更偏向于工程集成与数据处理,而非算法突破;此外,部分关键转录步骤依赖商业闭源服务,这为追求完全开源复现的研究者设置了一定的门槛。 ...

2026-04-29