文献阅读16期:Deep Learning on Graphs: A Survey - 5

Posted RaZLeon

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了文献阅读16期:Deep Learning on Graphs: A Survey - 5相关的知识,希望对你有一定的参考价值。

[ 文献阅读·综述 ] Deep Learning on Graphs: A Survey [1]

推荐理由:图神经网络的survey paper,在很多的领域展现出了独特的作用力,分别通过GRAPH RNN(图循环网络)、GCN(图卷积)、GRAPH AUTOENCODERS(图自编码器)、GRAPH REINFORCEMENT LEARNING(图强化学习模型)、GRAPH ADVERSARIAL METHODS(图对抗模型)等五个类型的模型进行阐述,可以让大家对图神经网络有一个整体的认识。

5.图自动编码器

自动编码器(AE)及其变体广泛应用于无监督学习任务中,适合于学习图的节点表示。隐含的假设是,图有一个内在的,潜在的非线性低秩结构。在这一节中,本文首先阐述了图自动编码器,然后介绍了图变分自动编码器和其他改进。下表总结了GAE的主要特征:

5.1.自动编码器

  • 图的自动编码器的使用起源于稀疏自动编码器(SAE)。其基本思想是,通过将邻接矩阵或其变化作为节点的原始特征,AEs可以作为一种降维技术来学习低维节点表示。具体而言,SAE采用了以下L2-reconstruction loss:
    min ⁡ Θ L 2 = ∑ i = 1 N ∥ P ( i , : ) − P ^ ( i , : ) ∥ 2 P ^ ( i , : ) = G ( h i ) , h i = F ( P ( i , : ) ) (43) \\begingathered \\min _\\boldsymbol\\Theta \\mathcalL_2=\\sum_i=1^N\\|\\mathbfP(i,:)-\\hat\\mathbfP(i,:)\\|_2 \\\\ \\hat\\mathbfP(i,:)=\\mathcalG\\left(\\mathbfh_i\\right), \\mathbfh_i=\\mathcalF(\\mathbfP(i,:)) \\endgathered\\tag43 ΘminL2=i=1NP(i,:)P^(i,:)2P^(i,:)=G(hi),hi=F(P(i,:))(43)
  • 然而,SAE是建立在错误的理论分析基础上的,其有效性的机制尚不清楚。
  • Structure deep network embedding(SDNE)填补了这一难题,它表明等式(43)中的L2重建损失实际上对应于节点之间的二阶接近度,即如果两个节点具有相似的邻域,则它们共享相似的latten表示,这是网络科学中一个被广泛研究的概念,被称为协同过滤或三角闭包。由于网络嵌入方法表明一阶邻近性也很重要,SDNE通过添加另一个拉普拉斯特征映射项修改了目标函数:
  • min ⁡ Θ L 2 + α ∑ i , j = 1 N A ( i , j ) ∥ h i − h j ∥ 2 (44) \\min _\\boldsymbol\\Theta \\mathcalL_2+\\alpha \\sum_i, j=1^N \\mathbfA(i, j)\\left\\|\\mathbfh_i-\\mathbfh_j\\right\\|_2\\tag44 ΘminL2+αi,j=1NA(i,j)hihj2(44)
  • 例如,如果两个节点直接相连,它们也共享相似的潜在表示。作者还通过使用邻接矩阵并为零和非零元素分配不同的权重来修改L2重建损失:
  • L 2 = ∑ i = 1 N ∥ ( A ( i , : ) − G ( h i ) ) ⊙ b i ∥ 2 (45) \\mathcalL_2=\\sum_i=1^N\\left\\|\\left(\\mathbfA(i,:)-\\mathcalG\\left(\\mathbfh_i\\right)\\right) \\odot \\mathbfb_i\\right\\|_2\\tag45 L2=i=1N(A(i,:)G(hi))bi2(45)
  • GC-MC采用了不同的方法,使用Kipf和Welling提出的GCN作为编码器:
    H = G C N ( F V , A ) (46) \\mathbfH=G C N\\left(\\mathbfF^V, \\mathbfA\\right)\\tag46 H=GCN(FV,A)(46)
    其使用简单的双线性函数作为解码器:
    A ^ ( i , j ) = H ( i , : ) Θ d e H ( j , : ) T (47) \\hat\\mathbfA(i, j)=\\mathbfH(i,:) \\Theta_d e \\mathbfH(j,:)^T\\tag47 A^(i,j)=H(i,:)ΘdeH(j,:)T(47)
  • DRNE没有重建邻接矩阵或其变体,而是提出了另一种改进方法,通过使用LSTM聚集邻域信息来直接重建低维节点向量。具体而言,DRNE采用了以下目标函数:
    L = ∑ i = 1 N ∥ h i − LSTM ⁡ ( h j ∣ j ∈ N ( i ) ) ∥ (48) \\mathcalL=\\sum_i=1^N\\left\\|\\mathbfh_i-\\operatornameLSTM\\left(\\left\\\\mathbfh_j \\mid j \\in \\mathcalN(i)\\right\\\\right)\\right\\|\\tag48 L=i=1NhiLSTM(hjjN(i))(48)
  • Graph2Gauss (G2G)将每个节点编码为高斯分布 h i = N ( M ( i , : ) , diag ⁡ ( Σ ( i , : ) ) ) \\mathbfh_i=\\mathcalN(\\mathbfM(i,:), \\operatornamediag(\\Sigma(i,:))) hi=N(M(i,:),diag(Σ(i,:)))来获得节点的不确定性。具体而言,作者使用从节点属性到高斯分布均值和方差的深度映射作为编码器:
    M ( i , : ) = F M ( F V ( i , : ) ) , Σ ( i , : ) = F Σ ( F V ( i , : ) ) (49) \\mathbfM(i,:)=\\mathcalF_\\mathbfM\\left(\\mathbfF^V(i,:)\\right), \\mathbf\\Sigma(i,:)=\\mathcalF_\\mathbf\\Sigma\\left(\\mathbfF^V(i,:)\\right)\\tag49 M(i,:)=FM(FV(i,:)),Σ(i,:)=FΣ(FV(i,:))(49)
  • 他们不使用显式解码器函数,而是使用成对约束来学习模型:
  • K L ( h j ∥ h i ) < K L ( h j ′ ∥ h i ) ∀ i , ∀ j , ∀ j ′  s.t.  d ( i , j ) < d ( i , j ′ ) (50) \\beginarrayr \\mathrmKL\\left(\\mathbfh_j \\| \\mathbfh_i\\right)<\\mathrmKL\\left(\\mathbfh_j^\\prime \\| \\mathbfh_i\\right) \\\\ \\forall i, \\forall j, \\forall j^\\prime \\text s.t. d(i, j)<d\\left(i, j^\\prime\\right) \\endarray\\tag50 KL(hjhi)<KL(hjhi)i,j,j以上是关于文献阅读16期:Deep Learning on Graphs: A Survey - 5的主要内容,如果未能解决你的问题,请参考以下文章

    文献阅读16期:Deep Learning on Graphs: A Survey - 5

    文献阅读17期:Deep Learning on Graphs: A Survey - 6

    文献阅读12期:Deep Learning on Graphs: A Survey - 1

    文献阅读17期:Deep Learning on Graphs: A Survey - 6

    文献阅读15期:Deep Learning on Graphs: A Survey - 4

    文献阅读14期:Deep Learning on Graphs: A Survey - 3