学习笔记CS224W速记(图模型专题)

Posted 囚生CY

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了学习笔记CS224W速记(图模型专题)相关的知识,希望对你有一定的参考价值。

序言

本文是对2021年秋季CS224W课程slides的速记,没有作业的解答。

CS224W其实看下来更偏向于是理论计算机方向的研究(比如图论),而非重点在图神经网络,因此很多内容理论性很强,本文是笔者花两天时间速过了一遍记录的一些对自己有用的要点,更偏向于图神经网络应用方面的摘要,一些没看懂的部分暂时没有深入研讨,仅先留个印象。

课程链接:http://web.stanford.edu/class/cs224w/


文章目录


节点中心度

给定无向图 G = ( V , E ) G=(V,E) G=(V,E),节点 v v v中心度(centrality) c v c_v cv用于衡量节点 v v v的重要性,具体有如下几种计算方式:

  1. 特征向量中心度(eigenvector centrality):节点重要性由与它相邻节点的重要性决定
    c v = 1 λ ∑ u ∈ N ( v ) c u ∈ R c_v=\\frac1\\lambda\\sum_u\\in N(v)c_u\\in\\R cv=λ1uN(v)cuR
    其中 N ( v ) N(v) N(v)表示节点 v v v的邻接点, λ > 0 \\lambda>0 λ>0为标准化系数。

    求解上式等价于求解 λ c = A c \\lambda\\bf c=A\\bf c λc=Ac,其中 A A A为无向图 G G G的邻接矩阵,因此等价于求解 A A A的特征值与特征向量,根据Perron-Fronbenius定理可知, λ max ⁡ \\lambda_\\max λmax必然为正,则通常使用最大特征值 λ max ⁡ \\lambda_\\max λmax对应的特征向量 c max ⁡ \\bf c_\\max cmax作为式 ( 1 ) (1) (1)的解。

  2. 中介中心度(betweenness centrality):节点重要性由它中转多少对节点之间的最短路径决定
    c v = ∑ s ≠ v ≠ t count(shortest paths between  s  and  t  that contain  v ) count(shortest paths between  s  and  t ) (2) c_v=\\sum_s\\neq v\\neq t\\frac\\textcount(shortest paths between s\\text and t\\text that contain v)\\textcount(shortest paths between s\\text and t)\\tag2 cv=s=v=tcount(shortest paths between s and t)count(shortest paths between s and t that contain v)(2)
    如在无向图 ( A , C ) , ( B , C ) , ( C , D ) , ( B , D ) , ( D , E ) (A,C),(B,C),(C,D),(B,D),(D,E) (A,C),(B,C),(C,D),(B,D),(D,E)中, c A = c B = c E = 0 , c C = c D = 3 c_A=c_B=c_E=0,c_C=c_D=3 cA=cB=cE=0,cC=cD=3

  3. 紧密中心度(closeness centrality):节点重要性由它与所有其他节点的距离之和决定
    c v = 1 ∑ u ≠ v shortest path length between  u  and  v c_v=\\frac1\\sum_u\\neq v\\textshortest path length between u\\text and v cv=u=vshortest path length between u and v1
    如在无向图 ( A , C ) , ( B , C ) , ( C , D ) , ( B , D ) , ( D , E ) (A,C),(B,C),(C,D),(B,D),(D,E) (A,C),(B,C),(C,D),(B,D),(D,E)中, c A = 1 / 8 , c D = 1 / 5 c_A=1/8,c_D=1/5 cA=1/8,cD=1/5


图基元

  1. 首先定义图的同形(isomorphism):称两个节点数相等的图 G 1 = ( V 1 , E 1 ) G_1=(V_1,E_1) G1=(V1,E1) G 2 = ( V 2 , E 2 ) G_2=(V_2,E_2) G2=(V2,E2)同形的,若存在一一映射 f : V 1 → V 2 f:V_1\\rightarrow V_2 f:V1V2,使得 E 1 = E 2 E_1=E_2 E1=E2(比如五角星和五边形就是同形图)。

    判断两个图是否同形是NP-hard

  2. 图基元(graphlets):非同形的图构成的集合。

    比如上图中陈列节点数不超过 5 5 5的所有图基元,节点上标号记录不同类型的图基元节点(如 G 8 G_8 G8中的 4 4 4个节点本质上是同类)。

    节点数图基元数量累积不同图基元节点数量
    2 2 2 1 1 1 1 1 1
    3 3 3 2 2 2 4 4 4
    4 4 4 6 6 6 15 15 15
    5 5 5 21 21 21 73 73 73

    事实上图基元未必一定是连通图,但是上图和上表中统计的都是连通情况下的计数。

  3. 图基元度向量(graphlet degree vectors,GDV):

    节点 u u u的GDV由它所在的子图中不同图基元节点出现频率构成。

    如上图所示,只考察节点数不超过 3 3 3的图基元,共计 4 4 4种不同的图基元节点 a , b , c , d a,b,c,d a,b,c,d,考察节点 u u u以上是关于学习笔记CS224W速记(图模型专题)的主要内容,如果未能解决你的问题,请参考以下文章

    学习笔记CS224W速记(图模型专题)

    学习笔记CS224W速记(图模型专题)

    CS224W图机器学习笔记3-节点嵌入

    从零开始CS224W-图机器学习-2021冬季学习笔记13.2:Community Structure in Networks——BigCLAM算法

    CS224W摘要15.Deep Generative Models for Graphs

    CS224W摘要03.Node Embedding