摘要: 联邦学习(FL)是一种新的分布式机器学习范式,它在保护设备数据隐私的同时打破数据壁垒,使各方能在不共享本地数据的前提下协作训练机器学习模型,但如何处理不同客户端的非独立同分布(Non-IID)数据仍是联邦学习的一个巨大挑战,目前提出的一些解决方案没有利用好本地模型和全局模型的隐含关系 ,无法简单而高效地解决问题 。针对联邦学习中不同客户端数据的非独立同分布问题,提出新的联邦学习优化算法FedSR和Dyn-FedSR。FedSR在每一轮训练过程中引入自正则化惩罚项动态修改本地损失函数,通过构建本地模型和全局模型的关系,使本地模型靠近聚合丰富知识的全局模型,缓解Non-IID数据带来的客户端偏移问题;Dyn-FedSR则在FedSR基础上通过计算本地模型和全局模型的相似度动态确定正则项系数。对不同任务进行大量的实验分析表明,FedSR和Dyn-FedSR在各种场景下的表现都明显优于FedAvg,FedProx和SCAFFOLD之类的联邦学习算法,能够实现高效通信和更高的准确率, 对不平衡数据和不确定的本地更新具有鲁棒性。
中图分类号: