ICASSP 2026 - 联邦学习

1 篇论文

← 返回 ICASSP 2026 总览


排名论文评分分档
🥇Cooperative Multi-Agent Reinforcement Learning for Adaptive7.0分前50%

📋 论文详情

🥇 Cooperative Multi-Agent Reinforcement Learning for Adaptive Aggregation in Semi-Supervised Federated Learning with non-IID Data

7.0/10 | 前50% | #联邦学习 | #强化学习 | #音频分类 #对抗样本

👥 作者与机构

  • 第一作者:Rene Glitza(波鸿鲁尔大学通信声学研究所)
  • 通讯作者:论文中未明确指出,未说明
  • 作者列表:Rene Glitza(波鸿鲁尔大学通信声学研究所)、Luca Becker(波鸿鲁尔大学通信声学研究所)、Rainer Martin(波鸿鲁尔大学通信声学研究所)

💡 毒舌点评

本文巧妙地将TD3算法应用于联邦学习的服务器与客户端双层决策,构建了一个能同时“抵御坏人”和“发展个性”的自适应系统,实验设计考虑了三种非独立同分布场景和对抗设置,相当全面。但实验仅局限于一个450k参数的小型音频Transformer预训练任务,就宣称“适用于真实世界部署”略显仓促,且未与同样使用强化学习的FedAA、FedDRL进行充分直接的性能对比,说服力打了折扣。

📌 核心摘要

本文旨在解决联邦学习在非独立同分布数据下全局模型性能下降及模型偏差问题,以及对抗性客户端威胁模型鲁棒性的挑战。核心方法是提出pFedMARL,一个多智能体强化学习框架,使用Twin Delayed DDPG(TD3) 算法。该框架包含一个服务器端代理,动态调整客户端聚合权重以优化全局模型鲁棒性;以及客户端代理,平衡全局与局部更新以实现个性化模型,且无需预训练代理。与传统方法(如FedAvg)相比,其新在将联邦学习过程建模为多智能体协同决策问题,实现了聚合策略的动态自适应。与Ditto相比,其新在通过强化学习自动学习个性化平衡参数,并额外增强了对抗鲁棒性。主要实验结��(见下表)表明,在三种非独立同分布数据场景下,pFedMARL在本地数据和全局数据上的MSE和F1-score指标上均优于或媲美FedAvg和Ditto,并能有效抑制对抗性客户端的影响。其实际意义在于为隐私敏感、数据异构的真实世界(如IoT设备协同训练)提供了一个灵活、可扩展的联邦学习解决方案。主要局限性在于验证局限于单一的半监督音频预训练任务,且缺乏对更多标准联邦学习基准(如计算机视觉数据集)的验证。

关键实验结果表1:客户端模型在本地测试集(L)和全局测试集(G)上的平均性能(部分)

算法数据场景MSE Mean ↓ (L)MSE Mean ↓ (G)F1 Mean ↑ (L)F1 Mean ↑ (G)
pFedMARLQS0.100.110.770.73
LS0.100.110.870.60
CS0.060.120.960.21
DittoQS0.170.170.750.71
LS0.170.180.690.34
CS0.150.190.910.19
FedAvgQS1.171.170.170.17
LS0.960.960.130.13
CS1.251.250.020.02
LocalQS0.100.100.840.80
LS0.080.110.920.59
CS0.030.070.980.21

关键实验结果表2:服务器模型在全局测试集上的F1分数

场景CSLSQS
pFedMARL0.220.380.61
Ditto0.110.070.22
FedAvg0.030.120.17
Baseline (Oracle)0.970.01低标签不平衡(未给出具体值)

图4描述:在CS非独立同分布场景下,pFedMARL、Ditto、FedAvg和本地训练的平均验证准确率(上图)、服务器F1准确率(中图)以及平均动作值(下图)随通信轮数的变化曲线。 图4说明:该图直观展示了pFedMARL的动态适应过程。客户端准确率(上图)在约50轮后超过Ditto,逼近本地训练。服务器准确率(中图)在初始阶段后稳步提升。下图显示,良性客户端的动作值(聚合权重)稳定在0.5左右,而对抗性客户端的动作值被迅速抑制至约0.1,证明了框架的鲁棒性。