将差分隐私应用于联邦学习的方法是保护训练数据隐私的关键技术之一。针对之前多数工作未考虑参数的异质性,对训练参数均匀裁剪使每轮加入的噪声都是均匀的,从而影响模型收敛和训练参数质量的问题,提出一种基于梯度裁剪的自适应噪声添加方案。考虑梯度的异质性,在不同轮次为不同客户端执行自适应的梯度裁剪,从而使噪声大小自适应调整;同时,为进一步提升模型性能,对比传统的客户端随机采样方式,提出一种结合轮盘赌与精英保留的客户端采样方法。结合上述2种方法,提出一种结合客户端选择的自适应差分隐私联邦学习(CS&AGC DP_FL)方法。实验结果表明,在隐私预算为0.5时,相较于自适应差分隐私的联邦学习方法(Adapt DP_FL),所提方法能在相同级别的隐私约束下使最终的模型分类准确率提升4.9个百分点,并且在收敛速度方面,所提方法相较于对比方法进入收敛状态所需的轮次减少了4~10轮。