FedProx——异构网络的联邦学习优化

GitHub地址https://github.com/litian96/FedProx

在McMahan 17年文章的基础上,对FedAvg做的改进,增加了一个修正项,称为proximal term,其本质是对本地模型权重参数和全局模型权重参数的一个差异限制,一次来增加模型训练的稳定性和模型的收敛性,大概就是这个意思了,啊,我什么时候才能使用latex写公式

FedProx——异构网络的联邦学习优化_第1张图片

后面进行了一些公式分析,主要有几个,收敛性分析,在边界差异假设下,给出了定理3等等

然后是联邦优化的算法部分,第一个是联邦平均FedAvg,与增加了u的对比,附录给出了不同数据集MNIST,莎士比亚(shakespeare),FEMNIST,Sent140等的数据集在非iid或者凸的条件下的不同表现,表明,u设置的有用性。
u有一个简单的自适应调整方法,当训练loss持续降低,就减小u等等操作,效果可观。

你可能感兴趣的:(炉温,paper)