Cooperative Multi-Agent Reinforcement Learning for Adaptive Aggregation in Semi-Supervised Federated Learning with non-IID Data

📄 Cooperative Multi-Agent Reinforcement Learning for Adaptive Aggregation in Semi-Supervised Federated Learning with non-IID Data #联邦学习 #强化学习 #音频分类 #对抗样本 #鲁棒性 ✅ 7.0/10 | 前50% | #联邦学习 | #强化学习 | #音频分类 #对抗样本 学术质量 6.0/7 | 选题价值 2.0/2 | 复现加成 -0.5 | 置信度 中 👥 作者与机构 第一作者:Rene Glitza(波鸿鲁尔大学通信声学研究所) 通讯作者:论文中未明确指出,未说明 作者列表:Rene Glitza(波鸿鲁尔大学通信声学研究所)、Luca Becker(波鸿鲁尔大学通信声学研究所)、Rainer Martin(波鸿鲁尔大学通信声学研究所) 💡 毒舌点评 本文巧妙地将TD3算法应用于联邦学习的服务器与客户端双层决策,构建了一个能同时“抵御坏人”和“发展个性”的自适应系统,实验设计考虑了三种非独立同分布场景和对抗设置,相当全面。但实验仅局限于一个450k参数的小型音频Transformer预训练任务,就宣称“适用于真实世界部署”略显仓促,且未与同样使用强化学习的FedAA、FedDRL进行充分直接的性能对比,说服力打了折扣。 📌 核心摘要 本文旨在解决联邦学习在非独立同分布数据下全局模型性能下降及模型偏差问题,以及对抗性客户端威胁模型鲁棒性的挑战。核心方法是提出pFedMARL,一个多智能体强化学习框架,使用Twin Delayed DDPG(TD3) 算法。该框架包含一个服务器端代理,动态调整客户端聚合权重以优化全局模型鲁棒性;以及客户端代理,平衡全局与局部更新以实现个性化模型,且无需预训练代理。与传统方法(如FedAvg)相比,其新在将联邦学习过程建模为多智能体协同决策问题,实现了聚合策略的动态自适应。与Ditto相比,其新在通过强化学习自动学习个性化平衡参数,并额外增强了对抗鲁棒性。主要实验结��(见下表)表明,在三种非独立同分布数据场景下,pFedMARL在本地数据和全局数据上的MSE和F1-score指标上均优于或媲美FedAvg和Ditto,并能有效抑制对抗性客户端的影响。其实际意义在于为隐私敏感、数据异构的真实世界(如IoT设备协同训练)提供了一个灵活、可扩展的联邦学习解决方案。主要局限性在于验证局限于单一的半监督音频预训练任务,且缺乏对更多标准联邦学习基准(如计算机视觉数据集)的验证。 关键实验结果表1:客户端模型在本地测试集(L)和全局测试集(G)上的平均性能(部分) 算法 数据场景 MSE Mean ↓ (L) MSE Mean ↓ (G) F1 Mean ↑ (L) F1 Mean ↑ (G) pFedMARL QS 0.10 0.11 0.77 0.73 LS 0.10 0.11 0.87 0.60 CS 0.06 0.12 0.96 0.21 Ditto QS 0.17 0.17 0.75 0.71 LS 0.17 0.18 0.69 0.34 CS 0.15 0.19 0.91 0.19 FedAvg QS 1.17 1.17 0.17 0.17 LS 0.96 0.96 0.13 0.13 CS 1.25 1.25 0.02 0.02 Local QS 0.10 0.10 0.84 0.80 LS 0.08 0.11 0.92 0.59 CS 0.03 0.07 0.98 0.21 关键实验结果表2:服务器模型在全局测试集上的F1分数 ...

2026-04-29

FED-PISA: Federated Voice Cloning Via Personalized Identity-Style Adaptation

📄 FED-PISA: Federated Voice Cloning Via Personalized Identity-Style Adaptation #联邦学习 #语音克隆 #语音合成 #低秩适配 #个性化学习 🔥 8.0/10 | 前25% | #语音克隆 | #联邦学习 | #语音合成 #低秩适配 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Qi Wang(鹏城实验室;中国科学院计算技术研究所;中国科学院大学) 通讯作者:未说明 作者列表:Qi Wang(鹏城实验室,中国科学院计算技术研究所,中国科学院大学)、Shituo Ma(中国科学院信息工程研究所,中国科学院大学)、Guoxin Yu(鹏城实验室)、Hanyang Peng(鹏城实验室)、Yue Yu(鹏城实验室) 💡 毒舌点评 亮点: 论文框架设计巧妙,通过解耦“身份(ID-LoRA)”和“风格(Style-LoRA)”,并借鉴协同过滤思想进行个性化聚合,优雅地解决了联邦学习中“隐私保护-通信效率-个性化”三者间的矛盾,是一个完整且实用的系统方案。 短板: 实验部分缺少对最新、最强的端到端语音大模型(如GPT-SoVITS的最新版本或CosyVoice 2的直接微调基线)的深入对比,使得其“显著优于零样本方法”的结论在当前技术背景下略显单薄,也未能充分展示其在更复杂(如跨语言)场景下的泛化能力。 📌 核心摘要 问题: 现有联邦语音克隆(TTS)方法面临两大挑战:高昂的通信开销和对说话人风格异质性的抑制,导致个性化不足。 方法核心: 提出FED-PISA框架。其核心是解耦的LoRA机制:为每个客户端维护一个私有的、冻结的ID-LoRA(捕捉音色),以及一个可全局通信的、轻量的Style-LoRA(捕捉风格)。服务器端采用受协同过滤启发的个性化聚合策略,为每个客户端从风格相似的对等方学习,生成定制化的风格模型。 创新点: 与传统联邦TTS相比,新在:1)首次在联邦语音克隆中实现身份与风格的解耦设计,通过LoRA分离;2)引入个性化聚合算法(基于风格相似度的注意力加权),主动利用而非抑制风格异质性;3)在强大的预训练骨干(GPT-SOVITS-V4)上应用PEFT,显著提升框架的性能上限。 主要实验结果: 在四个公开数据集(ESD, EmoV-DB, RAVDESS, CREMA-D)上进行50轮联邦训练。关键结果见下表。FED-PISA在风格表达性(SE: 0.704)、说话人相似度(SS: 0.645)、自然度(nMOS: 4.08)和正确率(WER: 2.70%)上均优于所有基线,同时通信开销(45.8 GiB)远低于其他联邦方法。 方法 骨干 SE ↑ WER (%) ↓ SS ↑ nMOS ↑ 通信开销 (GiB) ↓ 零样本 (COSYVOICE2) - 0.659 7.20 0.619 3.84 - 本地微调 (LoRA) GPT-SOVITS-V4 0.626 3.35 0.529 3.36 - FedSpeech FASTSPEECH2 0.416 6.82 0.556 3.77 145.28 Fed Dy. Trans. TRANSFORMER-TTS 0.463 8.75 0.602 3.72 456.35 FED-PISA (Ours) GPT-SOVITS-V4 0.704 2.70 0.645 4.08 45.8 实际意义: 为在隐私保护前提下,实现高效、高保真的个性化语音合成提供了一个可行的联邦学习解决方案,有助于推动语音合成技术在边缘设备和隐私敏感场景(如个人设备)中的应用。 主要局限性: 1)框架假设客户端拥有可用于初始化ID-LoRA的中性语料,在纯语音交互或冷启动场景下可能受限;2)个性化聚合的计算开销随客户端数量增长,论文未讨论其可扩展性;3)未在真实的、资源异构的边缘设备集群上评估部署性能。 🏗️ 模型架构 FED-PISA是一个基于联邦学习的语音克隆框架,其整体架构分为客户端和服务器两部分,核心思想是身份-风格解耦。 ...

2026-04-29

ICASSP 2026 - 联邦学习 论文列表

ICASSP 2026 - 联邦学习 共 1 篇论文 ← 返回 ICASSP 2026 总览 排名 论文 评分 分档 🥇 Cooperative Multi-Agent Reinforcement Learning for Adaptive 7.0分 前50% 📋 论文详情 🥇 Cooperative Multi-Agent Reinforcement Learning for Adaptive Aggregation in Semi-Supervised Federated Learning with non-IID Data ✅ 7.0/10 | 前50% | #联邦学习 | #强化学习 | #音频分类 #对抗样本 👥 作者与机构 第一作者:Rene Glitza(波鸿鲁尔大学通信声学研究所) 通讯作者:论文中未明确指出,未说明 作者列表:Rene Glitza(波鸿鲁尔大学通信声学研究所)、Luca Becker(波鸿鲁尔大学通信声学研究所)、Rainer Martin(波鸿鲁尔大学通信声学研究所) 💡 毒舌点评 本文巧妙地将TD3算法应用于联邦学习的服务器与客户端双层决策,构建了一个能同时“抵御坏人”和“发展个性”的自适应系统,实验设计考虑了三种非独立同分布场景和对抗设置,相当全面。但实验仅局限于一个450k参数的小型音频Transformer预训练任务,就宣称“适用于真实世界部署”略显仓促,且未与同样使用强化学习的FedAA、FedDRL进行充分直接的性能对比,说服力打了折扣。 📌 核心摘要 本文旨在解决联邦学习在非独立同分布数据下全局模型性能下降及模型偏差问题,以及对抗性客户端威胁模型鲁棒性的挑战。核心方法是提出pFedMARL,一个多智能体强化学习框架,使用Twin Delayed DDPG(TD3) 算法。该框架包含一个服务器端代理,动态调整客户端聚合权重以优化全局模型鲁棒性;以及客户端代理,平衡全局与局部更新以实现个性化模型,且无需预训练代理。与传统方法(如FedAvg)相比,其新在将联邦学习过程建模为多智能体协同决策问题,实现了聚合策略的动态自适应。与Ditto相比,其新在通过强化学习自动学习个性化平衡参数,并额外增强了对抗鲁棒性。主要实验结��(见下表)表明,在三种非独立同分布数据场景下,pFedMARL在本地数据和全局数据上的MSE和F1-score指标上均优于或媲美FedAvg和Ditto,并能有效抑制对抗性客户端的影响。其实际意义在于为隐私敏感、数据异构的真实世界(如IoT设备协同训练)提供了一个灵活、可扩展的联邦学习解决方案。主要局限性在于验证局限于单一的半监督音频预训练任务,且缺乏对更多标准联邦学习基准(如计算机视觉数据集)的验证。 ...

2026-04-29