实验记录总结

实验记录

An Efficient Framework for Clustered Federated Learning

实验记录总结_第1张图片
分离尺度越大,成功概率越大
实验记录总结_第2张图片
数据越多,client越多,成功概率越大

MNIST and CIFAR 数据集
对于给定的m和n,满足mn=60000k (k类别数)
我们将图像随机划分为m个工作机器,使每台机器拥有n个相同旋转的图像

我们注意到,通过操纵MNIST和CIFAR-10等标准数据集来创建不同的任务已经被持续学习研究界广泛采用[11,15,24]。对于集群FL,使用旋转创建数据集有助于我们模拟具有清晰集群结构的联邦学习设置。
实验记录总结_第3张图片
在我们的MNIST实验中,我们使用了带有ReLU激活的全连接神经网络,其中一个隐藏层大小为200;在CIFAR实验中,我们采用了由两个卷积层和两个完全连通层组成的卷积神经网络模型,并对图像进行了翻转和随机裁剪等标准数据增强预处理。

我们认为FEMNIST可能没有一个非常清晰的聚类结构,因此基于聚类的方法可能不是最合适的。对于实际应用,我们建议使用最适合数据分布的算法。

Federated Meta-Learning with Fast Convergence and Efficient Communication

实验记录总结_第4张图片
FEMNIST CNN
Shakespeare a stacked character-level LSTM model
Sent140 LSTM classifier

实验记录总结_第5张图片

你可能感兴趣的:(FL)