针对联邦学习中数据异质、梯度易陷入局部最优及计算?通信开销偏高等问题,面向Kolmogorov-Arnold网络(KAN)提出一种“关键边筛选?早停遗传进化?局部微调”的混合训练框架——KB-GA-KAN。首先依据核函数幅度和激活敏感度在客户端动态选取关键边,并仅对这些边的核系数进行遗传进化,全局搜索优良初始解;然后引入早停判据,结合进化与本地随机梯度下降(SGD)实现协同优化。在5个非独立同分布(Non-IID)数据集上的实验结果表明:相较于纯梯度训练的KAN,KB-GA-KAN在相同通信轮数下的测试准确率平均提高了1.34%,收敛轮数减少了42%,并以轻微的额外计算代价提升了异构场景的鲁棒性。核函数的可视化结果进一步验证了KB-GA-KAN对模型可解释性的促进作用。可见,KB-GA-KAN能为隐私受限条件下的高效随机梯度下降KAN训练提供兼顾准确率、收敛速度与计算成本的新途径。