用于移动边缘计算网络的联邦学习框架(二)

CT:混沌理论,喜欢用k值临近算法
AHP:应用命中率

表示在查找NE上设备请求的应用程序时命中的百分比。

下面开始联邦学习的讲解
用于移动边缘计算网络的联邦学习框架(二)_第1张图片
联邦学习的定义:是一种机器学习设定,其中许多客户机(例如,移动设备或整个组织)在中央服务器(例如,服务器提供商)的协调下共同训练模型,同时保持训练数据的去中心化。
联邦学习的长期目标:在不暴露数据的情况下分析和学习多个数据拥有者的数据。(解决数据孤岛)
2018年谷歌学习的社区提出的。

联邦学习的定义

很多客户端,在中央服务器的协调下,共同训练一个模型,而且需要一些数据,在客户端中保持去中心化的离散性质。
咱们平时训练模型的时候,都是在单机上训练的,但是我们现在做的是,结合不同客户端的一个数据,但是7有保证数据之间,相互不连通,保证多个客户端数据集的模型训练。

联邦学习的深入

孤岛现象:用户每时每刻都会产生数据,数据只是单独的保存在本地,因为包含隐私性。刚打开软件有个协议,这协议中都会包含隐私性保护的协议。所以,联邦学习在数据不共享的情况下,共同训练一个模型。
总而言之,就是在保护隐私的情况下,去完成一个共同学习的机器学习任务

为什么要引入联邦学习

结合不同的城堡,集中一起算一个大的。
1、不均衡的数据,非独立同分布
2、不可靠的设备
3、设备与设备间的通信,设备与服务器的通信的带宽有限。

应用

1、谷歌输入法中的关键字问题。(跨数据)
2、多家医院有病人的数据,病人的数据需要保护和隐私。我们需要共同完成眼角膜病变的识别,怎么提高模型的效果。大医院的数据多,小银元的数据少。(夸孤岛)
服务器要做的工作是模型聚合问题。

你可能感兴趣的:(边缘计算)