• • 下一篇
1.北方民族大学 计算机科学与工程学院,银川 750021;
2.图形图像智能处理国家民委重点实验室(北方民族大学),银川 750021; 3.北方民族大学 数学与信息科学学院,银川 750021
摘要: 灾难性遗忘对联邦类增量学习(FCIL)构成了显著挑战,导致联邦类增量学习进行持续任务时性能下降的问题。针对此问题,提出一种融合多头自注意力的标签语义嵌入的联邦类增量学习方法ATTLSE (ATTention Label Semantic Embedding)。首先,该方法通过融合多头自注意力的标签语义嵌入(LSE)和生成器;其次,在无数据知识蒸馏阶段,ATTLSE依靠融合多头自注意力的生成器,可以生成更多有意义的数据样本来指导用户端模型的训练,最后缓解了灾难性遗忘问题在FCIL中的影响。实验结果表明,在CIFAR-100和Tiny_ImageNet数据集上与LANDER方法相比,ATTLSE平均准确率提升了1~6个百分点左右,进一步缓解了持续任务在联邦类增量学习上的灾难性遗忘问题。
中图分类号: