RRPO: Robust Reward Policy Optimization for LLM-Based Emotional TTS

📄 RRPO: Robust Reward Policy Optimization for LLM-Based Emotional TTS #语音合成 #强化学习 #大语言模型 #鲁棒性 #数据增强 ✅ 7.5/10 | 前25% | #语音合成 | #强化学习 | #大语言模型 #鲁棒性 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.2 | 置信度 高 👥 作者与机构 第一作者:Cong Wang(北京邮电大学) 通讯作者:Ya Li(北京邮电大学) 作者列表:Cong Wang(北京邮电大学),Changfeng Gao(未说明),Yang Xiang(未说明),Zhihao Du(未说明),Keyu An(未说明),Han Zhao(未说明),Qian Chen(未说明),Xiangang Li(未说明),Yingming Gao(北京邮电大学),Ya Li(北京邮电大学) 💡 毒舌点评 这篇论文的亮点在于它对可微分强化学习在TTS中应用的“奖励黑客”现象进行了细致入微的病理分析,并开出了一剂对症的“混合正则化”药方,实验也清晰地展示了“药到病除”的效果。然而,其短板在于实验规模(单说话人、单语言、10k样本)相对局限,且核心的“鲁棒性”验证严重依赖下游SER任务的跨语言泛化作为代理指标,而非直接衡量生成语音对多种黑客攻击的抵抗力,说服力尚有提升空间。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:未提及数据集公开计划,但描述了所用数据集的规模、来源(单说话人、10k样本)和标注方式。 Demo:提供了在线演示页面链接:https://lrwinr.github.io/RRPO-CosyVoice。 复现材料:给出了关键的训练超参数(ε, ε_adv, α, 学习率)和硬件信息(8x A800),但缺少模型架构细节、训练日志和最终检查点。算法1详细描述了能量自适应混合(EAM)的流程。 引用的开源项目:论文未明确列出其依赖的开源工具或模型,但提到了CosyVoice2作为基线模型。 📌 核心摘要 本文旨在解决基于大语言模型的情感TTS中,采用可微分奖励优化(DiffRO)方法时出现的“奖励黑客”问题。即策略模型会学习生成一些能欺骗奖励模型(RM)获得高分但实际听感不佳的声学伪影(如不自然的唇齿音)。为此,作者提出了鲁棒奖励策略优化(RRPO) 框架,其核心是采用混合正则化方案对预训练的RM进行微调,从标签置信度、决策边界脆弱性和扰动敏感性三个层面纠正RM的偏差,使其奖励信号更贴近人类感知。与直接优化或简单SFT相比,该方法的新颖之处在于构建了一个更难被“黑客攻击”的可靠奖励信号。实验表明,RRPO在情感表达(E-MOS)和自然度(N-MOS)上均优于基线(CosyVoice2, SFT, DiffRO)。具体地,RRPO的E-MOS达到3.78±0.08,N-MOS达到3.81±0.09,而存在奖励黑客现象的DiffRO基线N-MOS仅为3.61±0.13。消融研究证实了混合正则化显著提升了RM在多个跨语言情感识别数据集上的泛化能力。该工作为强化学习在TTS中的安全应用提供了有效方案,但其在更多样化场景下的泛化能力和对更复杂攻击的抵御能力有待进一步验证。 ...

2026-04-29

S-PRESSO: Ultra Low Bitrate Sound Effect Compression with Diffusion Autoencoders and Offline Quantization

📄 S-PRESSO: Ultra Low Bitrate Sound Effect Compression with Diffusion Autoencoders and Offline Quantization #音频生成 #扩散模型 #量化 #模型比较 ✅ 7.5/10 | 前25% | #音频生成 | #扩散模型 | #量化 #模型比较 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Zineb Lahrichi(Sony AI, LTCI, T´el´ecom Paris, Institut Polytechnique de Paris) 通讯作者:未说明 作者列表:Zineb Lahrichi(Sony AI, LTCI, T´el´ecom Paris, Institut Polytechnique de Paris)、Ga¨etan Hadjeres(Sony AI)、Ga¨el Richard(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris)、Geoffroy Peeters(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris) 💡 毒舌点评 S-PRESSO巧妙地将扩散先验与离线量化结合,在0.096kbps下实现了惊人的音效重建质量,超越了现有连续和离散方法。但其创新本质是工程优化而非理论突破,且当前版本仅限于5秒音效、推理缓慢,离实用还有距离。 ...

2026-04-29

S-SONDO: Self-Supervised Knowledge Distillation for General Audio Foundation Models

📄 S-SONDO: Self-Supervised Knowledge Distillation for General Audio Foundation Models #知识蒸馏 #音频分类 #自监督学习 #模型压缩 ✅ 7.0/10 | 前25% | #音频分类 | #知识蒸馏 | #自监督学习 #模型压缩 学术质量 7.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Mohammed Ali El Adlouni(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris, Palaiseau, France) 通讯作者:未明确说明(论文中注明与Aurian Quelennec贡献相等,Slim Essid为†标注) 作者列表:Mohammed Ali El Adlouni(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris, Palaiseau, France)、Aurian Quelennec(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris, Palaiseau, France)、Pierre Chouteau(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris, Palaiseau, France)、Geoffroy Peeters(LTCI, T´el´ecom Paris, Institut Polytechnique de Paris, Palaiseau, France)、Slim Essid(NVIDIA,论文工作完成于LTCI, T´el´ecom Paris, Institut Polytechnique de Paris, Palaiseau, France) 💡 毒舌点评 亮点:这篇论文精准地戳中了当前音频AI领域一个真实的痛点——强大的自监督基础模型因过于庞大而难以落地,并为此提出了一种简洁、通用且有效的“仅嵌入”蒸馏框架,填补了方法论上的空白。 短板:方法虽然巧妙,但深度有限,更像是一次成功的工程适配而非理论突破;对为何仅对齐最终嵌入就足以传递复杂知识的机制缺乏深入探讨,且实验中部分消融结果(如BDS的不一致性)未能得到令人信服的解释。 ...

2026-04-29

S2Voice: Style-Aware Autoregressive Modeling with Enhanced Conditioning for Singing Style Conversion

📄 S2Voice: Style-Aware Autoregressive Modeling with Enhanced Conditioning for Singing Style Conversion #歌唱语音转换 #语音转换 #流匹配 #自回归模型 #数据集 ✅ 7.0/10 | 前25% | #歌唱语音转换 | #流匹配 | #语音转换 #自回归模型 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ziqian Wang(西北工业大学软件学院音频、语音与语言处理组 (ASLP@NPU)) 通讯作者:Lei Xie(西北工业大学软件学院音频、语音与语言处理组 (ASLP@NPU)) 作者列表:Ziqian Wang(西北工业大学软件学院音频、语音与语言处理组),Xianjun Xia(字节跳动),Chuanzeng Huang(字节跳动),Lei Xie(西北工业大学软件学院音频、语音与语言处理组) 💡 毒舌点评 亮点: 论文在SVCC 2025的两个赛道均取得冠军,系统性地将FiLM条件注入、全局说话人嵌入、大规模数据管线和SFT+DPO训练策略结合起来,在风格相似性和说话人相似性上取得了显著提升,实验设计完整,消融研究充分。 短板: 核心创新(FiLM调制、交叉注意力)多为现有技术的迁移应用,原创性有限;论文未提供开源代码或模型权重,且数据管线依赖的外部模型(如Whisper, Qwen3)版本和具体实现细节模糊,限制了可复现性。 🔗 开源详情 代码: 论文未提及公开代码仓库链接。仅提供了论文作者维护的演示网页链接。 模型权重: 未提及公开S2Voice的模型权重。 数据集: 自建的大规模歌唱语料库未公开。SVCC 2025挑战赛提供了约70小时的训练集和评估协议。 Demo: 提供了在线演示链接:https://honee-w.github.io/SVC-Challenge-Demo/ 复现材料: 论文给出了SFT和DPO阶段的学习率。但未提供模型配置文件、检查点、详细超参数(如隐藏维度、层数、码本大小)、硬件信息和训练时长。 论文中引用的开源项目: 论文明确使用了或依赖于以下开源工具/模型:ECAPA-TDNN [25](用于说话人嵌入/风格编码)、HuBERT [13]/Wav2Vec 2.0 [14](用于内容特征提取)、Whisper [27]/Paraformer [29](用于自动转录)、音乐人声分离模型 [28]、Qwen3 [30](用于转录精炼)、DNSMOS [31](用于质量评估)。基线系统Vevo [8]也是开源的。 📌 核心摘要 解决的问题: 歌唱风格转换(SSC)需要在改变演唱风格的同时保持歌词内容和歌手音色,现有方法存在风格与音色纠缠不完全、自回归模型捕捉细粒度风格能力有限、缺乏高质量训练数据和稳定训练策略等问题。 方法核心: 提出S2Voice,一个基于Vevo的两阶段框架。第一阶段(AR LLM)通过FiLM风格的层归一化调制和风格感知交叉注意力将风格嵌入整合到自回归大语言模型中,实现精细的风格控制。第二阶段(声学模型)在流匹配变换器中引入全局说话人嵌入,以增强音色相似性。此外,构建了大规模高质量歌唱数据语料库,并采用SFT + DPO的多阶段训练策略。 与已有方法相比新在哪里: (1)在AR LLM中引入了更精细的风格条件机制(FiLM+交叉注意力),相比直接拼接或简单注意力融合更有效;(2)在声学解码阶段明确使用预训练说话人���证网络提取的全局嵌入来指导音色,减少从音色参考中泄露风格;(3)构建了大规模、自动化的歌唱数据收集与清洗管线;(4)结合了DPO进行偏好优化,以解决推理中的失败模式,提升稳定性。 主要实验结果: 在SVCC 2025的Task 1(领域内)和Task 2(零样本)上均排名第一。具体指标如下表所示: 系统 任务 自然度 (MOS) 风格相似度 (%) 歌手相似度 (%) GT (真值) 1 3.90 ± 0.15 79 ± 3 63 ± 4 Vevo (基线) 1 3.10 ± 0.12 30 ± 5 42 ± 5 S2Voice 1 3.30 ± 0.10 59 ± 4 57 ± 4 GT (真值) 2 4.10 ± 0.15 78 ± 3 60 ± 4 Vevo (基线) 2 3.20 ± 0.12 32 ± 5 52 ± 5 S2Voice 2 3.75 ± 0.11 70 ± 3 59 ± 4 消融实验表明,各组件(数据、FiLM、交叉注意力、全局说话人嵌入、DPO)对最终性能均有贡献。 实际意义: 该系统为可控的歌唱内容创作(如风格模仿、歌曲翻唱)提供了强大的技术支撑,并在零样本场景下表现出良好的泛化能力,推动了歌唱转换领域的实用化进展。 主要局限性: (1)模型严重依赖大规模高质量数据,构建管线成本高;(2)DPO阶段虽然提升了稳定性,但略微降低了平均指标,表明“偏好”优化与“峰值性能”之间可能存在权衡;(3)论文未公开代码、模型和详细训练细节,阻碍了社区验证和应用。 🏗️ 模型架构 S2Voice是一个两阶段框架,构建在Vevo架构之上。 ...

2026-04-29

SA-SSL-MOS: Self-Supervised Learning MOS Prediction with Spectral Augmentation for Generalized Multi-Rate Speech Assessment

📄 SA-SSL-MOS: Self-Supervised Learning MOS Prediction with Spectral Augmentation for Generalized Multi-Rate Speech Assessment #语音质量评估 #自监督学习 #数据增强 #多语言 #开源工具 ✅ 7.0/10 | 前50% | #语音质量评估 | #自监督学习 | #数据增强 #多语言 学术质量 4.2/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 中 👥 作者与机构 第一作者:Fengyuan Cao(KTH Royal Institute of Technology, Stockholm, Sweden) 通讯作者:未说明 作者列表:Fengyuan Cao(KTH皇家理工学院),Xinyu Liang(KTH皇家理工学院),Fredrik Cumlin(KTH皇家理工学院),Victor Ungureanu(Google LLC),Chandan K. A. Reddy(Google LLC),Christian Sch¨uldt(Google LLC),Saikat Chatterjee(KTH皇家理工学院) 💡 毒舌点评 亮点:论文巧妙地设计了一个并行架构,将受限于16kHz的SSL特征与可处理48kHz的谱图特征相结合,直面并试图解决多速率语音评估中的高频信息丢失问题,两阶段训练策略在有限数据下提升了泛化能力。短板:所提方法在部分外部数据集(如腾讯中文数据集)上的性能反而低于仅使用SSL的基线模型,这表明其“谱图增强”分支可能引入了与语言或域不匹配的偏差,削弱了论文核心论点的一致性,且未与更前沿的多速率评估方法进行对比。 🔗 开源详情 代码:提供代码仓库链接:https://github.com/Dear-xxf/SA_SSL_MOS 模型权重:论文中未提及公开的模型权重文件。 数据集:训练所用的NISQA和AudioMOS数据集均为公开数据集,论文中引用了其来源。评估使用的外部数据集(Tencent, TCD-VoIP等)也多为公开数据集,但论文未提供获取方式的具体说明。 Demo:论文中未提及在线演示。 复现材料:论文给出了关键的模型架构、超参数(学习率、批大小、优化器、损失函数)和训练流程。但未提供具体的检查点、配置文件或环境依赖列表。 论文中引用的开源项目/模型:主要依赖于预训练的SSL模型Wav2vec2-XLSR-2B(引用[7]),以及DNSMOS Pro(引用[16])的架构作为SPM设计的参考。实现代码基于PyTorch(脚注中提到了torchaudio)。 总结:论文提供了核心代码,具备基本的复现基础,但缺乏模型权重和更完备的复现材料,因此开源程度为中等。 📌 核心摘要 问题:现有基于自监督学习(SSL)的语音质量评估(SQA)模型主要在16kHz语音上预训练,无法利用高采样率(24-48kHz)语音中的高频信息,导致对多速率语音的评估性能不佳。同时,公开的多速率MOS标注数据集规模较小,模型易过拟合且泛化能力弱。 方法核心:提出SA-SSL-MOS,一个并行的双分支架构。一个分支将音频下采样至16kHz,使用Wav2vec2-XLSR-2B的第9层特征;另一个分支将音频上采样至48kHz,提取对数谱图特征并由CNN处理。两个分支的特征拼接后预测MOS的均值和方差。此外,采用两阶段训练:先在大规模48kHz单速率数据集(NISQA)上预训练,再在少量多速率数据集(AudioMOS)上微调。 创新点:与已有SSL-Layer-MOS相比,新在通过并行谱图分支显式补充高频特征;并引入了针对多速率SQA的预训练-微调训练范式。 主要实验结果: 在AudioMOS测试集上,两阶段训练的SA-SSL-MOS取得了最佳的UTT SRCC(0.750)和UTT LCC(0.848)。 在泛化能力测试(表3)中,两阶段训练大幅提升了模型在多个外部数据集(如NISQA-Talk, TCD-VoIP)上的相关系数。但在Tencent w/o R(中文)数据集上,SA-SSL-MOS的MSE(1.192)高于基线(0.751),LCC(0.877)低于基线(0.917)。 | 模型 | 训练数据 | 测试集 (Tencent w/o R) | MSE ↓ | LCC ↑ | SRCC ↑ | | :--- | :--- | :--- | :--- | :--- | :--- | | baseline | AudioMOS train | Tencent w/o R | 1.002±0.054 | 0.691±0.023 | 0.687±0.024 | | SA-SSL-MOS (Ours) | AudioMOS train | Tencent w/o R | 1.097±0.057 | 0.669±0.035 | 0.666±0.033 | | baseline | NISQA+AudioMOS train | Tencent w/o R | 0.751±0.043 | 0.917±0.009 | 0.901±0.006 | | SA-SSL-MOS (Ours) | NISQA+AudioMOS train | Tencent w/o R | 1.192±0.124 | 0.877±0.024 | 0.891±0.010 | 实际意义:为处理不同采样率的语音质量评估提供了一种可扩展的框架,特别是在标注数据有限时,通过预训练提升泛化能力,对VoIP、高清通话等应用有潜在价值。 主要局限性:1) 谱图增强分支在跨语言(如中文)场景下可能产生负面迁移,导致性能下降。2) 高频信息提升评估准确性的核心论点在部分实验中(如腾讯数据集)未得到支持。3) 未与当前多速率SQA领域的其他SOTA方法进行对比。 🏗️ 模型架构 SA-SSL-MOS采用并行的双分支架构处理输入语音音频 x,并预测其MOS分数 y。 ...

2026-04-29

SAASDNet: An EEG-Based Streaming Auditory Attention Switch Decoding Network for Self-Initiated Attention Switching in Mixed Speech

📄 SAASDNet: An EEG-Based Streaming Auditory Attention Switch Decoding Network for Self-Initiated Attention Switching in Mixed Speech #脑机接口 #端到端 #流式处理 #数据集 #预训练 🔥 8.0/10 | 前25% | #脑机接口 | #端到端 | #流式处理 #数据集 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Yuting Ding(南方科技大学电子与电气工程系) 通讯作者:Fei Chen(南方科技大学电子与电气工程系) 作者列表:Yuting Ding(南方科技大学电子与电气工程系),Siyu Yu(南方科技大学电子与电气工程系),Ximin Chen(南方科技大学电子与电气工程系),Xuefei Wang(南方科技大学电子与电气工程系),Yueting Ban(南方科技大学电子与电气工程系),Fei Chen(南方科技大学电子与电气工程系) 💡 毒舌点评 亮点:论文抓住了一个非常实际且尚未被充分建模的痛点——在无提示线索、无空间分离的混合语音中进行自发起的注意力切换解码,其构建的MS-AASD数据集和提出的流式解码框架(SAASDNet)为这个更具生态效度的场景提供了首个系统性基准。短板:SAASDNet的架构(多尺度卷积+Transformer+门控循环)在脑电信号建模中已属常见组合,其核心创新点“稳定性感知门控”依赖的“置信度”和“波动性”指标设计相对启发式,缺乏更深入的理论或神经机制支撑,模型整体的“新颖性”相较于其“工程整合性”稍弱。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开的模型权重。 数据集:公开。MS-AASD数据集可通过Zenodo链接(https://doi.org/10.5281/zenodo.17149387)获取。 Demo:未提及在线演示。 复现材料:论文提供了详尽的训练细节(三阶段协议、优化器、学习率、批大小、TBPTT参数、损失函数公式等)和评估设置,为复现提供了良好的文本基础。 论文中引用的开源项目: wav2vec 2.0:用于语音特征提取。 AISHELL:作为语音材料来源。 E-Prime 3.0:用于实验刺激控制。 AdamW:优化器。 📌 核心摘要 问题:现有的EEG听觉注意力切换解码(AASD)范式大多依赖外部提示线索(如蜂鸣声)和空间化音频,无法捕捉自然状态下由听者自发发起的注意力切换,且可能引入非听觉伪迹。 方法核心:提出一个新的混合语音AASD数据集(MS-AASD)和一个端到端的流式解码网络SAASDNet。SAASDNet包含三个核心组件:多频带多分辨率聚合EEG编码器(MMAEnc)、简单的语音编码器,以及流式稳定性感知门控(StreamSAG)单元。 创新点:1)新范式与新数据集:首次构建支持自发起切换、无空间线索的混合语音EEG数据集MS-AASD。2)针对性架构设计:MMAEnc通过多尺度时域卷积和自适应频带聚合来应对EEG的非平稳性;StreamSAG单元利用说话人分类的置信度和短期波动性作为稳定性分数,自适应地加权历史信息,避免显式的切换点检测。 主要实验结果:在MS-AASD数据集上,使用wav2vec 2.0特征和1秒决策窗口时,SAASDNet的流式解码准确率达到83.6%,非流式准确率为79.9%。相比多种先进基线(DARNet, ListenNet等)和其自身的非流式版本(AASDNet)均有显著提升。消融实验证明了StreamSAG单元(特别是其中的置信度和波动性成分)、多分辨率卷积(GMR)和自适应频带聚合(MBA)的贡献。关键对比数据如下: 模型 决策窗口长度 0.5 s 1 s 2 s Mel W2V Mel W2V Mel W2V DARNet 70.3 74.1 71.5 76.8 72.0 77.9 ListenNet 71.4 74.0 71.8 76.4 72.7 76.9 ResCNN 71.8 76.2 72.1 77.2 73.7 78.0 TransCNN 72.3 77.5 73.8 78.4 74.4 79.7 AASDNet (ours) 72.9 78.4 74.3 79.9 76.7 81.1 SAASDNet (ours) 75.8 81.5 78.2 83.6 80.1 84.5 实际意义:这项工作为开发更自然、更鲁棒的下一代神经调控助听器提供了关键的数据基础和算法参考,展示了在复杂真实场景中利用EEG解码动态注意力的可行性。 主要局限性:数据集规模较小(13名被试),且均为母语中文,模型的泛化能力有待验证。模型虽然有效,但其组件的神经科学可解释性可以进一步深化。 🏗️ 模型架构 SAASDNet是一个为流式EEG听觉注意力切换解码设计的端到端网络,整体架构如图1所示。其核心流程如下: ...

2026-04-29

SAGA-SR: Semantically and Acoustically Guided Audio Super-Resolution

📄 SAGA-SR: Semantically and Acoustically Guided Audio Super-Resolution #音频增强 #扩散模型 #流匹配 #生成模型 ✅ 7.5/10 | 前25% | #音频增强 | #扩散模型 | #流匹配 #生成模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Jaekwon Im(KAIST 文化技术研究生院) 通讯作者:未说明 作者列表:Jaekwon Im(KAIST 文化技术研究生院)、Juhan Nam(KAIST 文化技术研究生院) 💡 毒舌点评 这篇论文的亮点在于巧妙地将文本语义信息和频谱滚降这一物理特征结合,作为扩散模型的双重引导,有效解决了通用音频超分辨率中“对齐差”和“高频能量不稳定”这两大痛点。不过,论文在训练硬件、具体模型参数量等复现关键信息上完全缺失,对于想复现其成果的同行来说,这无异于只给了地图却没标比例尺,实用性打了折扣。 🔗 开源详情 代码:论文中提供了代码和示例的链接:http://jakeoneijk.github.io/saga-sr-project。 模型权重:论文中未明确提及是否公开预训练模型权重。 数据集:论文使用的训练数据集(FreeSound, MedleyDB等)均为公开数据集,但论文未说明具体如何组合和预处理。测试集(VCTK, FMA-small, ESC50)也是公开数据集。 Demo:项目主页链接可能包含声音示例(论文中提及“Sound examples…are available online”),但论文内未直接给出在线演示链接。 复现材料:论文提供了详细的训练超参数(学习率、batch size、优化器、步数、调度器参数等)、数据预处理方法(滤波器类型、截止频率范围)和推理设置(采样步数、引导尺度)。但未提供模型结构细节(如DiT具体配置)、训练硬件信息、检查点文件或完整的训练配置代码。 论文中引用的开源项目:依赖预训练的VAE(来自[12] Stable Audio Open)、Qwen2-Audio(用于音频字幕生成)、T5-base(文本编码器)、librosa(频谱滚降计算)以及参考了AudioSR、FlashSR等工作的代码实现(用于对比)。 📌 核心摘要 问题:现有的通用音频超分辨率方法(如AudioSR、FlashSR)在重建高频时,常出现语义不匹配(如生成不自然的齿音)和高频能量分布不一致的问题。 方法核心:提出SAGA-SR模型,基于DiT(Diffusion Transformer)架构和流匹配(Flow Matching)目标进行训练。其核心创新在于引入了双重条件引导:(1)由音频生成的文本描述提供的语义嵌入;(2)由输入和目标音频的频谱滚降频率提供的声学嵌入。 新颖之处:首次在音频超分辨率任务中系统性地引入了基于文本的语义引导,解决了现有方法生成音频语义失真的问题;同时,引入了频谱滚降这一可量化的声学特征,为模型提供了明确的高频能量分布指导,并允许用户在推理时通过单一标量控制输出音频的高频能量。 主要结果:在语音、音乐、音效三个领域的测试中,SAGA-SR在所有客观指标(LSD、FD)和主观评估分数上均优于AudioSR和FlashSR。例如,在主观评估中,SAGA-SR在音效任务上得分3.88,显著高于FlashSR的3.34。消融实验证实了文本嵌入和频谱滚降嵌入的有效性。 实际意义:SAGA-SR提供了一个能够处理任意输入采样率(4-32 kHz)并统一上采样到44.1 kHz的通用音频增强工具,其可控的高频能量生成特性使其在音频修复、后期制作等场景中具有应用潜力。 主要局限性:模型对于包含多个重叠声源的复杂音频的处理能力有限;后处理中的低频替换操作可能引入频段间的不自然连接。 🏗️ 模型架构 SAGA-SR的整体架构(图1)是一个以条件DiT为核心的生成模型,包含以下流程: ...

2026-04-29

Salad-VAE: Semantic Audio Compression with Language-Audio Distillation

📄 Salad-VAE: Semantic Audio Compression with Language-Audio Distillation #音频压缩 #对比学习 #知识蒸馏 #变分自编码器 #零样本 ✅ 7.5/10 | 前25% | #音频压缩 | #变分自编码器 | #对比学习 #知识蒸馏 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Sebastian Braun (Microsoft Research, Redmond, WA, USA) 通讯作者:未说明 作者列表:Sebastian Braun (Microsoft Research, Redmond, WA, USA), Hannes Gamper (Microsoft Research, Redmond, WA, USA), Dimitra Emmanouilidou (Microsoft Research, Redmond, WA, USA) 💡 毒舌点评 亮点在于通过极低的潜在帧率(7.8 Hz)和精简的架构,在压缩效率上取得了显著进步,并创新性地集成了零样本分类和描述生成能力,超越了传统VAE的范畴。短板是其在核心的音频重构质量指标(如DistillMOS, FAD)上仍落后于StableAudio等更复杂的基线,表明其“语义增强”和“高保真重构”的双重目标尚未完美统一,且通用性验证局限于所选数据集。 ...

2026-04-29

Sampling-Rate-Agnostic Speech Super-Resolution Based on Gaussian Process Dynamical Systems with Deep Kernel Learning

📄 Sampling-Rate-Agnostic Speech Super-Resolution Based on Gaussian Process Dynamical Systems with Deep Kernel Learning #语音增强 #高斯过程 #深度核学习 #鲁棒性 ✅ 6.5/10 | 前25% | #语音增强 | #高斯过程 | #深度核学习 #鲁棒性 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Aditya Arie Nugraha(RIKEN Center for Advanced Intelligence Project (AIP),日本) 通讯作者:未说明 作者列表:Aditya Arie Nugraha(RIKEN AIP,日本)、Diego Di Carlo(RIKEN AIP,日本)、Yoshiaki Bando(RIKEN AIP,日本)、Mathieu Fontaine(LTCI, T’el’ecom Paris, Institut Polytechnique de Paris,法国;RIKEN AIP,日本)、Kazuyoshi Yoshii(京都大学工学研究科,日本;RIKEN AIP,日本) 💡 毒舌点评 亮点:论文将语音超分辨率问题巧妙地重新定义为基于连续时间随机过程的统计逆问题,提出的GPDS-SR框架在理论上非常优雅,并首次实现了真正的采样率无关性(可输出如13931Hz、19391Hz等非标准采样率)和对缺失样本的鲁棒性。短板:然而,这种理论上的优雅并未完全转化为感知质量上的优势,在核心指标ViSQOL和LSD-LF上,GPDS-SR明显落后于NU-Wave 2和UDM+等扩散/变分模型,且频谱图显示其生成结果存在明显伪影,这削弱了其“更具数学严谨性”方法的实际竞争力。 ...

2026-04-29

SAUNA: Song-Level Audio & User-Listening Data Neural Alignment

📄 SAUNA: Song-Level Audio & User-Listening Data Neural Alignment #音乐信息检索 #预训练 #迁移学习 #音乐理解 ✅ 7.0/10 | 前25% | #音乐信息检索 | #预训练 | #迁移学习 #音乐理解 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Morgan Buisson(Spotify;Nantes Université, École Centrale Nantes, CNRS, LS2N, UMR 6004, Nantes, France) 通讯作者:未说明 作者列表:Morgan Buisson(Spotify;Nantes Université, École Centrale Nantes, CNRS, LS2N, UMR 6004, Nantes, France)、Juan José Bosch(Spotify)、Daniel Stoller(Spotify) 💡 毒舌点评 论文巧妙地将大规模用户划动行为数据转化为“参与度曲线”,为音频模型提供了行为监督信号,这个想法很聪明。然而,模型架构本身(CNN + TCN)是音乐处理领域的常见方案,创新更多在于数据构建和任务应用上;此外,虽然论文提供了Spotify内部方法作为基线,但核心代码与模型的不开源,使得其可复现性大打折扣。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开模型权重。 数据集:训练数据为Spotify私有用户行为数据,未公开。评测使用的Harmonix数据集是公开基准。 Demo:未提及。 复现材料:论文提供了模型架构的关键描述(如通道数、池化方式)、训练超参数(学习率、warmup步数、优化器、训练步数、硬件)和损失函数,但未提供完整配置、检查点或详细附录。 论文中引用的开源项目:在结构分析任务对比中引用了LinkSeg [19]。 📌 核心摘要 要解决的问题:音乐信息检索(MIR)任务,如预览生成、结构分析,依赖于识别歌曲中吸引听众的时刻,但现有监督信号(如人工标注、启发式规则)成本高、主观性强或有限。 方法核心:提出SAUNA模型,使用大规模匿名化用户流媒体划动行为数据构建“覆盖曲线”(Coverage Curve)作为监督信号,训练一个CNN-TCN神经网络直接从音频log-Mel频谱图预测该曲线(1Hz分辨率),曲线的峰值对应预览起点。 与已有方法相比新在哪里:区别于依赖预定义启发式(如副歌检测)、情感关键点或小规模标注数据的方法,SAUNA直接从大规模、隐式的用户真实消费行为中学习“参与度”的音频表征,使其更具普适性,且能捕捉非重复性的吸引点。 主要实验结果: 预览生成:在主观听测中,SAUNA预览在“参与度”和“代表性”评分上与Spotify内部方法、基于用户覆盖曲线的理想方法持平,显著优于副歌检测和随机采样方法。 结构属性:SAUNA生成的预览有92%包含一个估计的结构边界,仅次于副歌检测方法(96%),且预览倾向于在段落转换前4-6秒开始,偏好“主歌→副歌”的过渡。 迁移学习:在Harmonix数据集的音乐结构分析任务上,以SAUNA预训练权重初始化的模型,在所有指标(如边界检测HR3F、段落分类准确率)上均显著优于从随机初始化训练的模型。 关键对比数据(结构分析任务,见论文表1): 指标 SAUNA预训练 随机初始化 LinkSeg [19] HR.5F 0.572 ±0.013 0.552 ±0.017 0.568 HR3F 0.747 ±0.013 0.696 ±0.024 0.717 PFC 0.697 ±0.022 0.655 ±0.027 0.771 V 0.687 ±0.021 0.639 ±0.025 - Acc 0.707 ±0.018 0.661 ±0.029 0.742 实际意义:证明了用行为数据监督学习到的音频表示是通用且有效的,可同时服务于音乐预览生成和结构分析,为MIR任务提供了一种新的、可扩展的预训练范式。 主要局限性:依赖特定流媒体平台的行为数据,可能继承算法偏差并忽略文化差异;评估时使用的行为信号本身可能与结构边界不完全对齐;主观测试样本量(16人)相对较小;1Hz的预测分辨率较为粗糙。 🏗️ 模型架构 SAUNA模型采用标准的CNN-TCN架构,用于处理音频并输出时序预测。 ...

2026-04-29