• • 下一篇
张一鸣,曹腾飞
ZHANG Yiming, CAO Tengfei #br#
摘要: 针对联邦学习在边缘计算应用中所面临的非独立同分布数据和异构算力挑战,为了避免数据非独立同分布导致客
户端模型更新方向出现较大偏差,从而引发模型不稳定的收敛,引入局部漂移变量的概念;并通过校正本地模型参数,将本
地训练过程与全局聚合过程分离,优化联邦学习在非独立同分布数据训练过程中的性能。此外,鉴于边缘服务器算力的多样
性,提出一种新的策略:从全局模型中划分出一个简化的神经网络子模型下发给算力受限的边缘服务器进行训练,而高算力
的边缘服务器则使用整个全局模型进行训练;低算力边缘服务器训练所得的参数将上传至云服务器,通过冻结部分参数加速
整个模型的拟合速度。结合以上两种方法,提出了一种基于本地漂移和多样性算力的联邦学习优化算法(FedLD),旨在解决
联邦学习在边缘计算应用中所面临的数据非独立同分布和算力多样性带来的异构挑战。实验结果表明,所提出的 FedLD 算法
比 FedAvg、Scaffold 和 FedProx 算法收敛更高、准确率更高,在 MNIST、CIFAR-10 和 CIFAR-100 数据集上分别将模型精度
提升了 0.25%、1.5%和 5%,与最新 FedProc 算法的对比中发现,FedLD 算法通信开销更低,并且在 K 最近邻算法(KNN)、长
短期记忆(LSTM)网络模型和双向门控循环单元(GRU)网络模型上的对比实验结果表明,结合 FedLD 算法后,3 种模型的预测
精度均有约 1%的提升。
中图分类号: