文献阅读13期:Deep Learning on Graphs: A Survey - 2

Posted RaZLeon

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了文献阅读13期:Deep Learning on Graphs: A Survey - 2相关的知识,希望对你有一定的参考价值。

[ 文献阅读·综述 ] Deep Learning on Graphs: A Survey [1]

推荐理由:图神经网络的survey paper,在很多的领域展现出了独特的作用力,分别通过GRAPH RNN(图循环网络)、GCN(图卷积)、GRAPH AUTOENCODERS(图自编码器)、GRAPH REINFORCEMENT LEARNING(图强化学习模型)、GRAPH ADVERSARIAL METHODS(图对抗模型)等五个类型的模型进行阐述,可以让大家对图神经网络有一个整体的认识

4. 图卷积网络(Graph Convolutional Networks)

  • 下表首先展现了一部分GCN的特性:

    可以看出,目前提出的图卷积网络还是非常丰富的。

4.1.卷积运算

  • 卷积运算在CNNs中非常常见,但它并不能直接应用在图网络当中,因为图网络没有Grid结构。

4.1.1.谱方法

  • 图拉普拉斯矩阵被引入,它的功能类似于信号处理中的傅里叶基,图的卷积操作 ∗ G * G G,可以定义为如下形式:
    u 1 ∗ G u 2 = Q ( ( Q T u 1 ) ⊙ ( Q T u 2 ) ) (5) \\mathbfu_1 *_G \\mathbfu_2=\\mathbfQ\\left(\\left(\\mathbfQ^T \\mathbfu_1\\right) \\odot\\left(\\mathbfQ^T \\mathbfu_2\\right)\\right)\\tag5 u1Gu2=Q((QTu1)(QTu2))(5)
    其中 u 1 , u 2 ∈ R N \\mathbfu_1, \\mathbfu_2 \\in \\mathbbR^N u1,u2RN是两种定义在节点上的信号, Q \\mathrmQ Q L \\mathrmL L的特征向量。
  • 通过和 Q T \\mathbfQ^T QT相乘,即可将图信号 u 1 , u 2 \\mathbfu_1, \\mathbfu_2 u1,u2转换到谱域当中。而与 Q \\mathbfQ Q相乘,则是实施逆运算。
  • 通过转换后输出信号可以表示为:
    u ′ = Q Θ Q T u (6) \\mathbfu^\\prime=\\mathbfQ \\Theta \\mathbfQ^T \\mathbfu\\tag6 u=QΘQTu(6)
    其中, Θ = Θ ( Λ ) ∈ R N × N \\boldsymbol\\Theta=\\boldsymbol\\Theta(\\boldsymbol\\Lambda) \\in \\mathbbR^N \\times N Θ=Θ(Λ)RN×N是一个可训练filters的对角阵, Λ \\boldsymbol\\Lambda Λ L \\mathrmL L的特征值。
  • 一个卷积层可以对不同的输入输出对施加不同的filters:
    u j l + 1 = ρ ( ∑ i = 1 f l Q Θ i , j l Q T u i l ) j = 1 , … , f l + 1 (7) \\mathbfu_j^l+1=\\rho\\left(\\sum_i=1^f_l \\mathbfQ \\Theta_i, j^l \\mathbfQ^T \\mathbfu_i^l\\right) j=1, \\ldots, f_l+1\\tag7 ujl+1=ρ(i=1flQΘi,jlQTuil)j=1,,fl+1(7)
  • 一般而言,谱域中的filters并不会局限于空间领域,这就意味着在图卷积网络中,每个点有可能被其他所有店影响,而不是仅仅被一小片区域中的点影响。
  • 为了解决这个问题,smoothing filters被引入:
    diag ⁡ ( Θ i , j l ) = K α l , i , j (8) \\operatornamediag\\left(\\Theta_i, j^l\\right)=\\mathcalK \\alpha_l, i, j\\tag8 diag(Θi,jl)=Kαl,i,j(8)
    其中, K \\mathcalK K是固定插值核, α l , i , j \\alpha_l, i, j αl,i,j是可训练插值系数。
  • 然而,有两个根本性问题还未解决:
    1. 在每步计算的时候,拉普拉斯矩阵的全特征向量都是必须的,每一步前/反向传播所需要的时间复杂度至少是 O ( N 2 ) O\\left(N^2\\right) O(N2),对大规模图网络中,运算量极大
    2. 因为filter依赖图的特征基 Q \\mathrmQ Q,对于不同结构和尺寸的图来说,分享参数几乎是不可能的事情。

4.1.2.运算效率

  • 为了解决效率问题,ChebNet被踢出,并且使用了多项式滤波器:
    Θ ( Λ ) = ∑ k = 0 K θ k Λ k (9) \\Theta(\\Lambda)=\\sum_k=0^K \\theta_k \\Lambda^k\\tag9 Θ(Λ)=k=0KθkΛk(9)
    其中, θ 0 , … , θ K \\theta_0, \\ldots, \\theta_K θ0,,θK是科学系参数, K K K是多项式阶。ChebNet用切比雪夫展开代替了特征分解:
    Θ ( Λ ) = ∑ k = 0 K θ k T k ( Λ ~ ) (10) \\boldsymbol\\Theta(\\boldsymbol\\Lambda)=\\sum_k=0^K \\theta_k \\mathcalT_k(\\tilde\\boldsymbol\\Lambda)\\tag10 Θ(Λ)=k=0KθkTk(Λ~)(10)
    其中, Λ ~ = 2 Λ / λ max ⁡ − I \\tilde\\mathbf\\Lambda=2 \\boldsymbol\\Lambda / \\lambda_\\max -\\mathbfI Λ~=2Λ/λmaxI为经过缩放的特征值, λ max ⁡ \\lambda_\\max λmax是最大特征值, I ∈ R N × N \\mathbfI \\in \\mathbbR^N \\times N IRN×N为单位阵, T k ( x ) \\mathcalT_k(x) Tk(x)为k阶切比雪夫多项式,其正交基的rescaling是必要的。
  • 利用拉普拉斯矩阵的多项式作为其特征值的多项式,则有 L k = Q Λ k Q T \\mathbfL^k=\\mathbfQ \\mathbf\\Lambda^k \\mathbfQ^T Lk=QΛkQT,式6的filter操作可写为如下形式:
    u ′ = Q Θ ( Λ ) Q T u = ∑ k = 0 K θ k Q T k (

    以上是关于文献阅读13期:Deep Learning on Graphs: A Survey - 2的主要内容,如果未能解决你的问题,请参考以下文章

    文献阅读17期:Deep Learning on Graphs: A Survey - 6

    文献阅读16期:Deep Learning on Graphs: A Survey - 5

    文献阅读12期:Deep Learning on Graphs: A Survey - 1

    文献阅读17期:Deep Learning on Graphs: A Survey - 6

    文献阅读15期:Deep Learning on Graphs: A Survey - 4

    文献阅读14期:Deep Learning on Graphs: A Survey - 3