CodecSlime: Temporal Redundancy Compression of Neural Speech Codec via Dynamic Frame Rate

📄 CodecSlime: Temporal Redundancy Compression of Neural Speech Codec via Dynamic Frame Rate #语音编码 #动态帧率 #VQ-GAN #插件式方法 #低比特率 ✅ 7.5/10 | 前10% | #语音编码 | #动态帧率 | #VQ-GAN #插件式方法 学术质量 7.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Hankun Wang(上海交通大学计算机科学与技术学院,X-LANCE实验室) 通讯作者:Kai Yu(上海交通大学计算机科学与技术学院,X-LANCE实验室) 作者列表:Hankun Wang(上海交通大学 X-LANCE实验室),Yiwei Guo(上海交通大学 X-LANCE实验室),Chongtian Shao(上海交通大学 X-LANCE实验室),Bohan Li(上海交通大学 X-LANCE实验室),Kai Yu(上海交通大学 X-LANCE实验室) 💡 毒舌点评 亮点:CodecSlime 提出了一种优雅的“动态帧率”压缩方案,通过自适应地合并信息密度低的语音帧(如长元音),在不增加码本容量的前提下显著降低了重建WER(相对降低32%),为低比特率语音编码提供了新思路。 短板:其训练过程需要两阶段的“熔化-冷却”微调,相比直接训练固定帧率模型增加了复杂度;且动态压缩比受限于最大合并窗口(U=4),对于超长冗余段的压缩能力可能有限。 📌 核心摘要 问题:当前主流的固定帧率(FFR)神经语音编码器在编码信息密度不均匀的语音信号(如长元音、静音段)时,会浪费大量token在冗余部分,导致编码效率低于理论极限。 方法核心:提出了一种插件式方法CodecSlime,包含两个核心技术:ScheDFR(可调度动态帧率)在推理时利用动态规划算法自适应地合并特征相似的连续帧;Melt-and-Cool训练方案(包括后训练和微调)将预训练的FFR模型适配到动态帧率(DFR)模式。 创新性:该方法完全无监督,且与编码器骨干架构无关。与此前尝试DFR的方法(如基于层次量化或依赖复杂语义蒸馏)相比,CodecSlime更简单、通用,且实现了端到端的重建质量优化,而非仅用于语义发现。 实验结果:在以80Hz FFR骨干(VQ-GAN架构)为目标、推理时采用40Hz DFR的设定下,CodecSlime在标准测试集上的WER相比同等比特率的40Hz FFR基线降低了最高32%(相对值),其他指标(STOI, PESQ, UTMOS, MUSHRA)也具有竞争力。具体关键数据见下表: 模型 帧率(Hz) 内容码本大小 内容比特率(kbps) WER(%)↓ MUSHRA↑ BigCodec-VQ8k (FFR) 40×1 8192 0.52 4.89 73.45±2.81 CodecSlime-VQ8k (DFR) 40×1 8192 0.52 4.25 84.01±1.59 BigCodec-FSQ18k (FFR) 40×1 18225 0.57 5.59 74.42±2.14 CodecSlime-FSQ18k (DFR) 40×1 18225 0.57 3.80 81.24±1.88 此外,单个CodecSlime模型在40-80Hz的多个目标帧率上进行推理时,性能均优于分别在各目标帧率上训练的FFR模型。 实际意义:为语音编码器提供了更高效的时间压缩方式,能在相同重建质量下降低码率,或在相同码率下提升质量,对语音通信、大语言模型语音接口等低带宽/高效率场景有重要价值。 主要局限性:训练需要两阶段微调,流程相对复杂;压缩能力受限于预设的最大合并窗口U;实验主要在LibriSpeech英文数据集上进行,跨语言泛化性虽有验证但程度有限。 🏗️ 模型架构 整体架构:CodecSlime作为一个插件,附加在现有的固定帧率(FFR)VQ-GAN语音编码器骨干上。骨干模型本身包含编码器(Encoder)、量化器(Quantizer)和解码器(Decoder)三个核心部分,并通常使用判别器进行对抗训练。 ...

2026-04-29

CodeSep: Low-Bitrate Codec-Driven Speech Separation with Base-Token Disentanglement and Auxiliary-Token Serial Prediction

📄 CodeSep: Low-Bitrate Codec-Driven Speech Separation with Base-Token Disentanglement and Auxiliary-Token Serial Prediction #语音分离 #语音编码 #多任务学习 #音频编解码 ✅ 7.5/10 | 前25% | #语音分离 | #多任务学习 | #语音编码 #音频编解码 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Hui-Peng Du(中国科学技术大学,语音及语言信息处理国家工程研究中心) 通讯作者:Yang Ai(中国科学技术大学,语音及语言信息处理国家工程研究中心) 作者列表:Hui-Peng Du(中国科学技术大学)、Yang Ai*(中国科学技术大学)、Xiao-Hang Jiang(中国科学技术大学)、Rui-Chen Zheng(中国科学技术大学)、Zhen-Hua Ling(中国科学技术大学)。所有作者均隶属于“语音及语言信息处理国家工程研究中心,中国科学技术大学,合肥,中国”。 💡 毒舌点评 论文精准地瞄准了“既要分离又要压缩”这个被忽略的实用场景,并设计了逻辑自洽的模型,实验也充分证明了其在极低码率下吊打简单级联方案。然而,模型本质上仍是Transformer、RVQ和LSTM等成熟模块的“拼接乐”,缺乏更底层的方法论创新;且实验仅限于两人说话,面对更复杂的多人鸡尾酒会能否保持住这个“1 kbps”的优势,恐怕要打个问号。 📌 核心摘要 问题:本文针对一个实际但未被充分研究的场景——同时进行语音分离与语音压缩。在在线会议、对话归档等应用中,需要从混合语音中分离出说话人,并将其表示为紧凑的离散token以便高效传输或存储。 方法核心:提出CodeSep模型,一个编解码器驱动的联合分离压缩框架。其核心组件包括:一个基于残差向量量化(RVQ)的神经语音编解码器(MDCTCodec),一个基础token解纠缠模块(BTD),以及并行的辅助token串行预测模块(ATSP)。 创新点:与先压缩再分离(FCTS)或先分离再压缩(FSTC)的级联方案不同,CodeSep采用联合分离压缩(JSAC) 策略。BTD模块直接从混合语音的梅尔谱中解纠缠出每个说话人的“基础token”(仅传输这些即可达到极低码率),ATSP模块则利用基础token串行预测出剩余的“辅助token”以提升重建质量。训练时利用RVQ提供的排列不变交叉熵和基于教师强迫的交叉熵损失。 主要实验结果:在Libri2Mix数据集上,CodeSep在仅1 kbps的比特率下,其分离语音的质量(UTMOS 3.14,DNSMOS 3.67)和说话人相似度显著优于同码率的FCTS和FSTC基线。甚至,CodeSep(1 kbps)的UTMOS和DNSMOS得分超过了FSTC方案在2 kbps、4 kbps乃至8 kbps下的结果(具体数据见下表)。 表1:1 kbps下各方法性能对比 ...

2026-04-29

FocalCodec-Stream: Streaming Low-Bitrate Speech Coding via Causal Distillation

📄 FocalCodec-Stream: Streaming Low-Bitrate Speech Coding via Causal Distillation #语音编码 #流式处理 #知识蒸馏 #语音大模型 #低资源 🔥 8.0/10 | 前25% | #语音编码 | #知识蒸馏 | #流式处理 #语音大模型 学术质量 6.5/7 | 选题价值 2.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Luca Della Libera(Concordia University, Mila-Quebec AI Institute) 通讯作者:未说明 作者列表:Luca Della Libera(Concordia University, Mila-Quebec AI Institute),Cem Subakan(Universit´e Laval, Concordia University, Mila-Quebec AI Institute),Mirco Ravanelli(Concordia University, Mila-Quebec AI Institute) 💡 毒舌点评 本文巧妙地将非流式的WavLM“蒸”成一个能实时处理的语音编码器,通过多阶段训练和一个轻巧的“精修工”模块,在80毫秒的低延迟下实现了比肩甚至超越同类流式编解码器的音质和下游性能,堪称工程实践的典范。不过,为了塞进WavLM这个大块头,模型参数量几乎翻倍(249M vs. 142M),其在资源受限设备上的部署可能是个挑战,且多语言泛化能力虽优于部分基线,但仍有明显下滑。 ...

2026-04-29

IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter-Band Prediction

📄 IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter-Band Prediction #语音编码 #语音合成 #信号处理 #轻量模型 #流式处理 ✅ 7.0/10 | 前25% | #语音编码 | #信号处理 | #语音合成 #轻量模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Peng Zhou(北京理工大学) 通讯作者:Shenghui Zhao*(北京理工大学) 作者列表:Peng Zhou(北京理工大学),Xiaojiao Chen(北京理工大学),Pincheng Lu(北京理工大学),Jing Wang(北京理工大学),Shenghui Zhao*(北京理工大学) 💡 毒舌点评 亮点:论文精准抓住了“低比特率下低频更重要”这一经典信号处理直觉,并将其与神经网络结合,通过一个轻量的带间预测模块(IBPM)在解码端“猜”出高频,以极小的计算代价(0.35 GMACs)实现了有竞争力的性能,这种“巧劲”值得在资源受限场景下借鉴。 短板:IBPM目前的结构(三层逐点卷积)过于简单,其预测能力存在明显天花板(当P=0.5时质量下降),本质上仍是低频信息的线性外推,论文未探讨更强大的生成式预测模型(如扩散模型)的可能性;此外,模型在1 kbps下的绝对质量(PESQ 2.2)距离“可用”仍有距离,创新性更多是工程上的巧妙设计而非原理性突破。 📌 核心摘要 这篇论文针对当前神经语音编解码器计算复杂度过高、难以在边缘设备部署的问题,提出了一种名为IBPCodec的低比特率轻量级语音编解码器。其核心方法是优先对输入语音的低频部分(占比P=75%)进行编码和量化传输,在解码端利用一个轻量的带间预测模块(IBPM)从解码出的低频信息中预测高频成分,从而恢复完整语音。与先前直接丢弃高频或整体编码的方法相比,该创新点在于将频带优先传输与神经预测相结合。实验结果显示,在16 kHz采样率、1-3 kbps比特率下,IBPCodec的计算复杂度仅为0.35 GMACs(远低于DAC的55.66G和SpeechTokenizer的17.09G),其PESQ、SI-SDR等客观指标及MUSHRA主观评分均优于或持平FreqCodec、SpeechTokenizer等基线。该工作的实际意义在于为低功耗设备上的实时语音通信提供了一种高效的编解码方案。其主要局限性在于IBPM的预测能力有限,在更低频带占比(P=0.5)时性能下降,且模型在极低比特率下的绝对语音质量仍有提升空间。 🏗️ 模型架构 IBPCodec采用“编码-量化-解码-预测”的端到端架构,工作在时频域。整体流程如图1所示: 输入预处理:输入语音波形x经STFT变换为频谱f。论文取其幅度、单位范数相位的实部和虚部,并截取低频部分(比例P)作为输入flow,维度为3×F‘×N。 编码器:由ConvEncoder(下采样卷积堆栈)和TAM(时间聚合模块)组成。ConvEncoder在每帧内进行特征提取,但缺乏帧间建模。因此,在量化器前后各加入一个TAM(基于因果FocalBlock),用于聚合不同时间尺度的依赖关系,增强时序建模能力。所有卷积均为因果卷积,以支持流式推理。 量化器:采用分组残差向量量化(GRVQ),组数G=2,通过调整层数控制比特率。将连续潜变量z量化为离散表示zq。 解码器:结构与编码器镜像对称,将上采样卷积替换下采样卷积。解码器从量化特征中重建低频频谱f‘_low。 带间预测模块:这是核心创新模块。它接收解码出的低频f‘_low,通过三层逐点1D卷积(带PReLU激活)将信息从低频维度投影至高频维度,预测出高频频谱f‘_high。预测公式为:f‘_high = IBPM(f‘_low)。 输出合成:将低频f‘_low和预测的高频f‘_high拼接成完整频谱f‘,再经iSTFT变换成最终语音波形x‘。 设计动机:该架构的核心动机是,在低比特率下,优先保证低频信息的准确传输,因为低频对语音的可懂度和感知质量至关重要。高频信息则通过轻量预测模块从低频中恢复,从而避免了对高频进行昂贵的编码,大幅降低了整体计算复杂度。 ...

2026-04-29

ICASSP 2026 - 语音编码 论文列表

ICASSP 2026 - 语音编码 共 5 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Lisa: Lightweight Yet Superb Neural Speech Coding 8.5分 前25% 🥈 FocalCodec-Stream: Streaming Low-Bitrate Speech Coding via C 8.0分 前25% 🥉 CodecSlime: Temporal Redundancy Compression of Neural Speech 7.5分 前10% 4. Speaking Clearly: A Simplified Whisper-Based Codec for Low-B 7.5分 前25% 5. IBPCodec : A Low-Bitrate Lightweight Speech Codec With Inter 7.0分 前25% 📋 论文详情 🥇 Lisa: Lightweight Yet Superb Neural Speech Coding 🔥 8.5/10 | 前25% | #语音编码 | #信号处理 | #向量量化 #实时处理 ...

2026-04-29

Lisa: Lightweight Yet Superb Neural Speech Coding

📄 Lisa: Lightweight Yet Superb Neural Speech Coding #语音编码 #向量量化 #信号处理 #实时处理 🔥 8.5/10 | 前25% | #语音编码 | #信号处理 | #向量量化 #实时处理 学术质量 8.5/7 | 选题价值 7.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jiankai Huang (南京大学) 通讯作者:Xun Cao (南京大学), Zhan Ma (南京大学) 作者列表:Jiankai Huang (南京大学), Junteng Zhang (南京大学), Ming Lu (南京大学), Xun Cao (南京大学), Zhan Ma (南京大学) 💡 毒舌点评 论文提出的“调节残差使其更利于量化”这一核心思想非常巧妙且实用,直击传统RVQ在后续阶段效率低下的痛点,最终实现了在超低比特率下用极小的模型超越一众巨型模型(如参数量4.98M vs 872M的SemantiCodec)。不过,实验部分略显“基础”,虽然对比了多个模型,但缺乏对更复杂噪声环境、不同语言或说话人风格下鲁棒性的分析,也缺乏直接的主观听感(MOS)测试,说服力上稍打折扣。 📌 核心摘要 问题:现有神经语音编码器在低/超低比特率下,编码效率受限于特征表示能力和量化过程的不足,特别是传统残差向量量化(RVQ)在初始阶段后,残差变得不规则,导致量化损失高、效率低下。 方法核心:提出轻量级编码器-解码器Lisa,其核心是引入两个创新模块:(1) 带Inception残差块(IRB)的因果频域编码器,用于提取多尺度特征;(2) 受调节残差向量量化(R-RVQ),在每个量化阶段前通过一个可学习模块将残差“调节”为更规整、更适合量化的形式。 新在哪里:R-RVQ首次在量化前主动对残差进行结构化重塑,而非被动处理原始残差。这与传统RVQ直接堆叠量化器有本质区别,确保了每个阶段都能有效降低量化误差。 实验结果:在LibriTTS数据集上,Lisa在500 bps时ViSQOL达3.90,在1500 bps时达4.43,超越了FunCodec、MUFFIN、StreamCodec等基线模型,同时模型参数仅4.98M,计算量为2.83G MACs,适合实时流式应用。 实际意义:为在极低带宽下实现高质量、低延迟的实时语音通信(如视频会议、云游戏)提供了高效可行的解决方案。 主要局限性:实验主要在干净语音(LibriTTS)上验证,对噪声、失真或实际网络传输环境的鲁棒性未作评估;评估指标依赖客观分数,缺少主观听感测试;对模型在极低延迟(<10ms)场景下的性能未做专门探讨。 🏗️ 模型架构 Lisa的整体架构遵循“编码-量化-解码”的经典范式,但全程在时频域(STFT域)操作以利用多分辨率特征。其完整流程如下: ...

2026-04-29

Speaking Clearly: A Simplified Whisper-Based Codec for Low-Bitrate Speech Coding

📄 Speaking Clearly: A Simplified Whisper-Based Codec for Low-Bitrate Speech Coding #语音编码 #语音增强 #预训练 #Whisper模型 ✅ 7.5/10 | 前25% | #语音编码 | #预训练 | #语音增强 #Whisper模型 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Xin Zhang(武汉理工大学计算机与人工智能学院) 通讯作者:Lin Li(武汉理工大学计算机与人工智能学院) 作者列表:Xin Zhang(武汉理工大学计算机与人工智能学院)、Lin Li(武汉理工大学计算机与人工智能学院)、Xiangni Lu(武汉理工大学计算机与人工智能学院)、Jianquan Liu(NEC Corporation)、Kong Aik Lee(香港理工大学电机及电子工程学系) 💡 毒舌点评 亮点是思路清奇,反其道而行之,没有在声学编解码器上叠加语义监督,而是把一个现成的ASR模型(Whisper)“改造”成编解码器,通过简单的架构简化(去掉GELU和位置编码)就解锁了其声学建模能力,实验结果也相当能打。短板在于,这种“简化”本质上是针对特定任务(编解码)的工程化调整,其理论解释(位置编码影响注意模式、GELU抑制频谱细节)略显粗浅,且论文声称的“State-of-the-art”结论仅在英语数据集(LibriSpeech)上得到验证,对于多语言、噪声环境等更复杂场景的泛化能力未做探讨。 📌 核心摘要 问题:当前语音编解码器面临语义内容保留和声学保真度之间的固有冲突,尤其在低比特率下更为突出。主流方法通过复杂的外部语义监督(如HuBERT蒸馏、多任务学习)来缓解此冲突。 方法核心:本文提出相反的思路:从一个已经具备语义能力的模型(Whisper ASR模型)出发,通过目标明确的架构简化(移除卷积前端的GELU激活函数和Transformer中的绝对位置编码),使其适配高保真声学重建任务。基于此发现,提出了SimWhisper-Codec。 与已有方法相比新在哪里:新在思路(“语义优先”而非“声学增强”)。无需额外的语义监督信号,直接利用冻结的、简化后的Whisper编码器作为强大的特征提取器,结合FSQ量化和对称解码器,实现单阶段训练。 主要实验结果:在LibriSpeech test-clean上,SimWhisper-Codec以1.1 kbps的极低比特率实现了优秀的性能。关键指标对比见下表: 模型 比特率 (BPS) WER ↓ SIM ↑ STOI ↑ PESQ-NB ↑ PESQ-WB ↑ 语义监督 Mimi-RVQ8 1.1k 3.24 0.73 0.90 2.79 2.24 是 XCodec2.0 0.8k 2.61 0.82 0.92 3.04 2.43 是 XY-Tokenizer 1.0k 2.46 0.85 0.92 3.10 2.50 是 SimWhisper-Codec 1.1k 2.75 0.83 0.93 3.29 2.72 否 该模型在声学质量(PESQ)上超越了所有对比的基线模型,在语义保留(WER)上也与需要复杂监督的基线模型相当。 ...

2026-04-29