CVPR2022,通过在公开数据集上的logits相似性(同类相近、异类原理)来迁移客户端知识,通过上轮模型和初始模型延缓遗忘。
论文地址:openaccess
code: 作者开源
贡献
提出了一种新颖的联邦学习方法,称为 FCCL(联邦互相关和持续学习)。
- 为异构联邦学习制定了一种简单有效的方法。通过利用未标记的公共数据并采用自我监督学习,异构模型实现通信并学习可概括的表示。
- 探索减轻联邦学习中的灾难性遗忘。通过使用更新的和预训练的模型进行域间和域内知识蒸馏,它可以平衡来自他人和自身的知识。
- 使用未标记的公共数据对两个图像分类任务(例如,Digits和Office-Home)进行了广泛的实验。 FCCL 比相关方法具有更优越的域间和域内性能。对核心模块的消融研究验证了其有效性和必要性。
算法流程
主要分为两块,互相关学习(Federated Cross-Correlation Learning)和持续学习(Federated Conti