去中心化的联邦图神经网络

《Decentralized Federated Graph Neural Networks》论文阅读笔记

发表在2021年的IJCAI

  1. 背景
    GNN广泛用来分析图结构数据,然而,在用户端有隐私,规则限制,商业竞争等。因此,我们能看到的图结构数据是分布式的,这也就限制了GNN的应用。
  2. 已有方法
    已有一些关于中心化联邦图神经网络的研究,中心服务器协调各个参与者从图结构数据中训练的GNN模型。
  3. 存在问题
    中心服务器需要进行模型聚合操作,在很多跨领域场景下,这种中心服务器是不被接受的。因此,去中心化的学习模型在真实场景下还是很关键的。
  4. 本文
    提出一种去中心化的联邦图神经网络D-FedGNN,允许多个参与者训练一个图神经网络模型,且不需要中心服务器。具体的,使用去中心化的并行梯度下降是算法DP-SGD,在点对点的网络结构中训练图神经网络模型。为了保护模型聚合过程中的隐私,D-FedGNN引入Diffie-Hellman key exchange方法在客户端进行安全模型聚合。
    去中心化的联邦图神经网络_第1张图片
  5. 具体
    5.1 初始化
    每个客户端有自己的子图,G = (V,E),在初始阶段,客户端初始化训练模型参数,然后将训练好的模型参数发送给其他客户端,最终,调用Diffie-Hellman密钥交换协议,与j客户建立共享密钥。
    5.2 本地模型更新:
    每个客户端利用自己的隐私数据训练图神经网络模型,在训练过程中,每个客户端首先生成节点的嵌入向量X,执行前向图卷积层的计算: 在这里插入图片描述
    其中,D是邻接矩阵,编码图中的边信息,可以进行图变换,如拉普拉斯矩阵。δ是非线性激活函数ReLU。
    假设有l个图卷积层,则GCN的输出:
    在这里插入图片描述
    损失函数:
    在这里插入图片描述
    反向传播更新模型:
    在这里插入图片描述
    5.3 安全模型聚合:
    客户端首先将本地的模型参数安全掩码:
    在这里插入图片描述
    其中,PRG()是伪随机数生成器,sk是客户端i,j共享的密钥。

你可能感兴趣的:(推荐系统,神经网络,去中心化,深度学习)