文献阅读15期:Deep Learning on Graphs: A Survey - 4

Posted RaZLeon

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了文献阅读15期:Deep Learning on Graphs: A Survey - 4相关的知识,希望对你有一定的参考价值。

[ 文献阅读·综述 ] Deep Learning on Graphs: A Survey [1]

推荐理由:图神经网络的survey paper,在很多的领域展现出了独特的作用力,分别通过GRAPH RNN(图循环网络)、GCN(图卷积)、GRAPH AUTOENCODERS(图自编码器)、GRAPH REINFORCEMENT LEARNING(图强化学习模型)、GRAPH ADVERSARIAL METHODS(图对抗模型)等五个类型的模型进行阐述,可以让大家对图神经网络有一个整体的认识。

4.3 提高与探讨

  • 这节主要讨论其他的一些可以被应用到图深度学习上的方法。

4.3.1.注意力机制

  • 在之前的方法中,大部分图图计算过程中,近邻节点的影响非常大,但这些节点影响的方式是实现制定好的,并非训练得来的。Graph attention network (GAT)引入了一种调整卷及操作的机制:
    h i l + 1 = ρ ( ∑ j ∈ N ^ ( i ) α i j l h j l Θ l ) (32) \\mathbfh_i^l+1=\\rho\\left(\\sum_j \\in \\hat\\mathcalN(i) \\alpha_i j^l \\mathbfh_j^l \\Theta^l\\right)\\tag32 hil+1=ρjN^(i)αijlhjlΘl(32)
    其中, α i j l \\alpha_i j^l αijl便是 l t h l^t h lth层中指节点 v i v_i vi对节点 v j v_j vj的注意程度:
    α i j l = exp ⁡ (  LeakyReLU  ( F ( h i l Θ l , h j l Θ l ) ) ) ∑ k ∈ N ^ ( i ) exp ⁡ (  LeakyReLU  ( F ( h i l Θ l , h k l Θ l ) ) ) (33) \\alpha_i j^l=\\frac\\exp \\left(\\text LeakyReLU \\left(\\mathcalF\\left(\\mathbfh_i^l \\Theta^l, \\mathbfh_j^l \\Theta^l\\right)\\right)\\right)\\sum_k \\in \\hat\\mathcalN(i) \\exp \\left(\\text LeakyReLU \\left(\\mathcalF\\left(\\mathbfh_i^l \\Theta^l, \\mathbfh_k^l \\Theta^l\\right)\\right)\\right)\\tag33 αijl=kN^(i)exp( LeakyReLU (F(hilΘl,hklΘl)))exp( LeakyReLU (F(hilΘl,hjlΘl)))(33)
  • 下图展示了一种多头注意力机制:
  • 至于其他的注意力机制还有两级注意机制,这种机制兼顾了节点级别和语义级别的注意。

4.3.2.残差和跳连

  • 一般来说GCN的层数不宜过多,一般2-3层为佳。这个问题可能是由于训练深度GCN的实际困难或过度平滑问题造成的。比如所有深层的节点都是同样的表达。
  • 为了解决这一问题,残差连接被引入GCN:
    H l + 1 = ρ ( D ~ − 1 2 A ~ D ~ − 1 2 H l Θ l ) + H l (34) \\mathbfH^l+1=\\rho\\left(\\tilde\\mathbfD^-\\frac12 \\tilde\\mathbfA \\tilde\\mathbfD^-\\frac12 \\mathbfH^l \\Theta^l\\right)+\\mathbfH^l\\tag34 Hl+1=ρ(D~21A~D~21HlΘl)+Hl(34)
  • Column network (CLN)采用了一种近似的残差连接,但包含有可训练权重:
    h i l + 1 = α i l ⊙ h ~ i l + 1 + ( 1 − α i l ) ⊙ h i l (35) \\mathbfh_i^l+1=\\boldsymbol\\alpha_i^l \\odot \\widetilde\\mathbfh_i^l+1+\\left(1-\\boldsymbol\\alpha_i^l\\right) \\odot \\mathbfh_i^l\\tag35 hil+1=αilh il+1+(1αil)hil(35)
    其中,权重的计算方式为:
    α i l = ρ ( b α l + Θ α l h i l + Θ α ′ l ∑ j ∈ N ( i ) h j l ) (36) \\boldsymbol\\alpha_i^l=\\rho\\left(\\mathbfb_\\alpha^l+\\mathbf\\Theta_\\alpha^l \\mathbfh_i^l+\\mathbf\\Theta_\\alpha^\\prime l \\sum_j \\in \\mathcalN(i) \\mathbfh_j^l\\right)\\tag36 αil=ρbαl+Θαlhil+ΘαljN(i)hjl(36)
  • 受个性化PageRank的影响,PPNP定义了一种含有传送信息至初始层的图卷积:
    H l + 1 = ( 1 − α ) D ~ − 1 2 A ~ D ~ − 1 2 H l + α H 0 (37) \\mathbfH^l+1=(1-\\alpha) \\tilde\\mathbfD^-\\frac12 \\tilde\\mathbfA \\tilde\\mathbfD^-\\frac12 \\mathbfH^l+\\alpha \\mathbfH^0\\tag37 以上是关于文献阅读15期:Deep Learning on Graphs: A Survey - 4的主要内容,如果未能解决你的问题,请参考以下文章

    文献阅读15期:Deep Learning on Graphs: A Survey - 4

    文献阅读17期:Deep Learning on Graphs: A Survey - 6

    文献阅读16期:Deep Learning on Graphs: A Survey - 5

    文献阅读12期:Deep Learning on Graphs: A Survey - 1

    文献阅读17期:Deep Learning on Graphs: A Survey - 6

    文献阅读14期:Deep Learning on Graphs: A Survey - 3