去中心化的联邦图神经网络

Posted Xidian小韩同学

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了去中心化的联邦图神经网络相关的知识,希望对你有一定的参考价值。

《Decentralized Federated Graph Neural Networks》论文阅读笔记

发表在2021年的IJCAI

  1. 背景
    GNN广泛用来分析图结构数据,然而,在用户端有隐私,规则限制,商业竞争等。因此,我们能看到的图结构数据是分布式的,这也就限制了GNN的应用。
  2. 已有方法
    已有一些关于中心化联邦图神经网络的研究,中心服务器协调各个参与者从图结构数据中训练的GNN模型。
  3. 存在问题
    中心服务器需要进行模型聚合操作,在很多跨领域场景下,这种中心服务器是不被接受的。因此,去中心化的学习模型在真实场景下还是很关键的。
  4. 本文
    提出一种去中心化的联邦图神经网络D-FedGNN,允许多个参与者训练一个图神经网络模型,且不需要中心服务器。具体的,使用去中心化的并行梯度下降是算法DP-SGD,在点对点的网络结构中训练图神经网络模型。为了保护模型聚合过程中的隐私,D-FedGNN引入Diffie-Hellman key exchange方法在客户端进行安全模型聚合。
  5. 具体
    5.1 初始化
    每个客户端有自己的子图,G = (V,E),在初始阶段,客户端初始化训练模型参数,然后将训练好的模型参数发送给其他客户端,最终,调用Diffie-Hellman密钥交换协议,与j客户建立共享密钥。
    5.2 本地模型更新:
    每个客户端利用自己的隐私数据训练图神经网络模型,在训练过程中,每个客户端首先生成节点的嵌入向量X,执行前向图卷积层的计算:
    其中,D是邻接矩阵,编码图中的边信息,可以进行图变换,如拉普拉斯矩阵。δ是非线性激活函数ReLU。
    假设有l个图卷积层,则GCN的输出:

    损失函数:

    反向传播更新模型:

    5.3 安全模型聚合:
    客户端首先将本地的模型参数安全掩码:

    其中,PRG()是伪随机数生成器,sk是客户端i,j共享的密钥。

以上是关于去中心化的联邦图神经网络的主要内容,如果未能解决你的问题,请参考以下文章

论文导读- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)

2022图神经网络5篇最新的研究综述:双曲/图分类/联邦/等变/异质性

论文导读 - 关于联邦图神经网络的3篇文章

群体智能中的联邦学习算法综述---简笔记(除安全类)

群体智能中的联邦学习算法综述---简笔记(除安全类)

Pysyft学习笔记四:MINIST数据集下的联邦学习(并行训练与非并行训练)