• • 下一篇
俞浩1,2,3,范菁1,2,3,孙伊航1,2,3,董华1,2,3,郗恩康1,2,3
YU Hao1,2,3,
FAN Jing1,2,3, SUN Yihang1,2,3, DONG Hua1,2,3,
XI Enkang1,2,3
摘要: 联邦学习是一种强调隐私保护的分布式机器学习框架,但在应对统计异质性问题时面临显著挑战。统计异质性源于参与节点间的数据分布差异,可能导致模型更新偏差、全局模型性能下降以及收敛不稳定。针对上述问题,详细分析了统计异质性带来的主要问题,包括特征分布不一致、标签分布不均衡、数据量不对称及数据质量参差不齐等,并对现有的解决方案进行了系统综述。这些方案包括局部校正、聚类方法、客户端选择优化、聚合策略调整、数据共享、知识蒸馏及解耦优化等,并逐一评估它们的优缺点与适用场景。此外,探讨了未来研究方向,如设备计算能力感知、模型异构适应、隐私安全机制的优化及跨任务迁移能力的提升,为应对实际应用中的统计异质性提供了参考。
中图分类号: