论文改进想法
- 当 z p r e v z_{prev} zprev(上一轮本地训练好的发往server的模型得到的表征)与 z z z(这轮正在被更新的本地模型得到的表征)相似或是差别不大时,我们将 l c o n \mathcal{l}_{con} lcon定为0,此轮的 w w w的更新只与 l s u p \mathcal{l}_{sup} lsup有关. 具体用什么方法判断待定
- moon中虽然说了有投影这一步(MLP),但是在算法代码中并没有看见实现,后续自己可以加上看效果
- 获得表征向量的过程是否需要改进?(动量更新)ResNet网络的代码还没看懂
- 交叉熵损失
l
s
u
p
\mathcal{l}_{sup}
lsup是否可以改进?(ICML 2022 Federated Learning with Label Distribution Skew via Logits Calibration )
Softmax交叉熵会导致本地模型严重过拟合少数类和缺失类。该论文将Logits进行重校准,来缓解Softmax带来的问题
提出的方法