• • 下一篇
张珂嘉1,方志军1,2,周南润3,史志才1
摘要: 联邦学习(FL)是一种分布式机器学习方法,利用分布式数据进行模型训练,但在高度异构的数据分布中表现不佳;个性化联邦学习(PFL)通过为每个客户端提供个性化模型来解决这一问题。然而,以往的PFL算法主要侧重于客户端本地模型的优化,而忽略了服务器端的全局模型,服务器计算资源没有得到充分利用。针对上述局限性,提出基于模型预分配与自蒸馏的个性化联邦学习方法FedPASD。FedPASD从服务器端和客户端两方面入手:在服务器端对下一轮客户端模型有针对性地预先分配,这样不仅能提高模型个性化性能,还能有效利用服务器的计算能力;在客户端,模型经过分层训练,并通过模型自蒸馏微调更好地适应本地数据分布的特点。在CIFAR-10、Fashion-MNIST和CIFAR-100三个数据集上,对FedPASD与FedCP、FedPAC、FedALA等典型算法进行了对比实验,实验结果表明:FedPASD在不同异构设置下的测试准确率都高于FedALA等基准算法,在CIFAR-100数据集上较传统FL算法提升30个百分点,较PFL算法提升2.42到5.92个百分点,在CIFAR-10数据集上最高可达88.54%测试准确率。
中图分类号: