论文阅读|深读LINE: Large-scale Information Network Embedding
Posted 海轰Pro
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文阅读|深读LINE: Large-scale Information Network Embedding相关的知识,希望对你有一定的参考价值。
目录
- 前言
- ABSTRACT
- 1. INTRODUCTION
- 2. RELATED WORK
- 3. PROBLEM DEFINITION
- 4. LINE: LARGE-SCALE INFORMATION NETWORK EMBEDDING
- 5. EXPERIMENTS
- 结语
前言
Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研。
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
唯有努力💪
知其然 知其所以然!
本文仅记录自己感兴趣的内容
ABSTRACT
本文研究了将非常大的信息网络嵌入到低维向量空间的问题(大规模网络嵌入)
我们提出了一种新的网络嵌入方法,称为“LINE”,它适用于任意类型的信息网络:无向、有向和/或加权
- 该方法优化了一个精心设计的目标函数,同时保留了局部和全局网络结构
- 针对经典随机梯度下降算法的局限性,提出了一种边缘采样算法,提高了推理的有效性和效率。
实验证明LINE在语言网络、社交网络、引文网络等多种现实信息网络中具有有效性
该算法非常高效,能够在一台典型的单机机器上在几个小时内学习包含数百万个顶点和数十亿条边的网络的嵌入 (适于大型网络高效进行网络嵌入)
1. INTRODUCTION
LINE在保留局部和全局网络结构的前提下对目标进行优化
自然地,局部结构由网络中观察到的连接表示,反映了顶点之间的一阶邻近
在真实的网络中,许多(如果不是大多数的话)合法的连接实际上是没有被观察到的。所以在真实世界数据中观测到的一阶接近度不足以保留全局网络结构
作为补充,我们探索顶点之间的二阶邻近性,这不是通过观察节点之间的连接强度,而是通过顶点的共享邻域结构来确定的
二阶邻近的一般概念可以解释为共享邻居的节点可能是相似的
这种直觉可以在社会学和语言学的理论中找到。
以下图为例
- 由于顶点6和7之间的边的权值较大,即6和7具有较高的一阶接近度,因此在嵌入空间中应该紧密地表示它们。
- 顶点5和顶点6之间虽然没有联系,但它们有很多共同的邻居,即它们有很高的二阶接近度,因此它们之间也应该紧密地表示
我们期望 二阶邻近性的考虑 有效地补充了一阶邻近性的稀疏性,并更好地保留了网络的全局结构。
即使找到了一个合理的目标优化函数,针对一个非常大的网络进行优化也是一项挑战
随机梯度下降法(SGD)是近年来备受关注的一种优化方法。然而,直接部署随机梯度下降对于真实世界的信息网络是有问题的
- 因为在许多网络中,边缘都是加权的
- 而且权重通常呈现出很高的方差
- 比如考虑一个单词共现网络,其中单词对的权重(共现)从1到数十万不等。
- 这些边的权值将被乘到梯度中,导致梯度爆发,从而影响性能。
为了解决这个问题,我们提出了一种新的边缘采样方法,它提高了推断的有效性和效率
- 我们以与其权重成正比的概率对边进行采样,然后将采样的边作为二值边进行模型更新。
- 在这个采样过程中,目标函数保持不变,边缘的权重不再影响梯度
本文贡献
- 我们提出了一种新的网络嵌入模型,称为“LINE”,它适用于任意类型的信息网络,并容易扩展到数百万个节点。它有一个精心设计的目标函数,同时保持一阶和二阶邻近性。
- 我们提出了一种边缘采样算法来优化目标。该算法解决了经典随机梯度算法的局限性,提高了推理的有效性和效率。
- 我们在真实世界的信息网络上进行广泛的实验。实验结果证明了LINE模型的有效性和高效性。
2. RELATED WORK
一般的图嵌入或降维的经典方法,如MDS[4]、IsoMap[20]、LLE[18]和Laplacian Eigenmap[2]
- 通常首先使用数据点的特征向量构造亲和性图,例如数据的k近邻图
- 然后将亲和性图[22]嵌入到低维空间中
然而,这些算法通常依赖于求解亲和矩阵的主导特征向量,其复杂度至少是节点数量的二次方,这使得它们在处理大规模网络时效率低下
图分解[1]技术
- 通过矩阵分解找到大图的低维嵌入
- 并使用随机梯度下降法进行优化
然而,矩阵分解的目标并不是针对网络设计的,因此不一定能保持网络的全局结构
直观上,图分解要求一阶接近度较高的节点被紧密表示。
图分解方法只适用于无向图
DeepWalk[16],它为社交网络嵌入部署了一个截断的随机游走。
尽管在经验上是有效的,但DeepWalk并没有提供一个明确的目标,说明哪些网络属性被保留。
- 直观上,DeepWalk期望具有较高二阶接近度的节点产生类似的低维表示
- 而LINE同时保持一阶和二阶接近度
区别:
- DeepWalk使用随机漫步来扩展顶点的邻域,这类似于深度优先搜索,而LINE采用宽度优先搜索策略,这是一种比较合理的二阶逼近方法。
- DeepWalk只适用于未加权的网络,而LINE适用于既有加权边又有非加权边的网络。
3. PROBLEM DEFINITION
Definition 1. (Information Network)
-
G = ( V , E ) G=(V,E) G=(V,E)
-
e = ( u , v ) , e ∈ E , u , v ∈ V e=(u,v), e\\in E,u,v\\in V e=(u,v),e∈E,u,v∈V
-
w u , v w_u,v wu,v:节点u、v之间边的权重
现实中,信息网络可以是定向的(如引用网络),也可以是非定向的(如Facebook中用户的社交网络)。这些边的权值可以是二值的,也可以取任何实数
- 例如,在引文网络和社交网络中, w u v w_uv wuv取二值(0或1);
- 在不同对象间的共现网络中, w u v w_uv wuv可以取任意非负值。
注意,虽然负权边是可能的,但在本研究中我们只考虑非负权边。
在某些网络中,当一些对象多次共出现而另一些对象可能只共出现几次时,边缘的权值可能会发生分歧。(没懂)
Definition 2. (First-order Proximity)
网络中的一阶邻近性是两个顶点之间的局部两两邻近性。
- 对于每一对由边 ( u , v ) (u, v) (u,v)连接的顶点,该边的权值 w u v w_uv wuv表示 u u u和 v v v之间的一阶接近度。
- 如果 u u u和 v v v之间没有边,则它们的一阶接近度为0。
一阶邻近度通常意味着网络中两个节点的相似性。
例如,在社交网络中彼此是朋友的人往往拥有相似的兴趣;在万维网中相互链接的页面往往谈论相似的话题。
由于这种重要性,许多现有的图嵌入算法,如ISOMAP、LLE、拉普拉斯特征映射和图因式分解,都以保持一阶邻近性为目标。
然而,在现实世界的信息网络中,观察到的连接只占一小部分,还有许多其他链接缺失[10]。
缺失链路上的一对节点具有零一阶邻近度(缺失边,一阶邻近性为0),即使它们本质上彼此非常相似。
因此,仅有一阶邻近性不足以保存网络结构,重要的是寻求另一种邻近性概念来解决稀疏性问题。
一种自然的直觉是,共享相似邻居的顶点往往彼此相似。
例如
- 在社交网络中,拥有相似朋友的人往往有相似的兴趣,从而成为朋友;
- 在单词共现网络中,总是与同一组单词共现的单词往往具有相似的含义。
因此,我们定义了二阶邻近度,它补充了一阶邻近度,并保持了网络结构。
Definition 3. (Second-order Proximity)
网络中一对顶点 ( u , v ) (u, v) (u,v)之间的二阶邻近性是其邻域网络结构之间的相似性。
设 p u = ( w u , 1 , … , w u , ∣ V ∣ ) p_u = (w_u,1,…, w_u,|V |) pu=(wu,1,…,wu,∣V∣)表示 u u u与所有其他顶点的一阶邻近性
则 u u u与 v v v的二阶接近度由 p u p_u pu与 p v p_v pv的相似度决定
如果没有一个顶点同时连接到u和v,那么u和v之间的二阶邻近性为0。
Definition 4. (Large-scale Information Network Embedding)
给定一个大网络 G = ( V , E ) G = (V, E) G=(V,E),大规模信息网络嵌入问题的目标是将每个顶点 v ∈ V v∈V v∈V表示到一个低维空间 R d R^d Rd中
即学习函数 f G : V → R d f_G: V→R^d fG:V→Rd,其中 d < < ∣ V ∣ d << |V | d<<∣V∣。
在空间 R d R^d Rd中,顶点之间的一阶邻近性和二阶邻近性都保持不变。
4. LINE: LARGE-SCALE INFORMATION NETWORK EMBEDDING
一个理想的真实世界信息网络嵌入模型必须满足以下几个条件:
- 第一,它必须能够同时保持顶点之间的一阶和二阶邻近性
- 其次,它必须适用于非常大的网络,比如数百万个顶点和数十亿条边;
- 第三,它可以处理具有任意类型边的网络:有向边、无向边和/或加权边
4.1 Model Description
我们描述了LINE模型,分别保持一阶邻近性和二阶邻近性,然后介绍了一种简单的结合两阶邻近性的方法。
4.1.1 LINE with First-order Proximity
一阶接近是指网络中顶点之间的局部两两接近。
为了模拟一阶接近,对于每个无向边(i, j),我们定义顶点 v i v_i vi和 v j v_j vj之间的联合概率如下
其中 u ⃗ i ∈ R d \\vec u_i \\in R^d ui∈Rd,表示顶点 v i v_i vi的向量表示
等式(1)定义了 V × V V × V V×V空间上的一个分布 p ( ⋅ , ⋅ ) p(·,·) p(⋅,⋅),其经验概率可以定义为 p 1 ^ ( i , j ) = w i j W \\hatp_1(i, j) = \\fracw_ijW p1^(i,j)=Wwij,其中 W = ∑ ( i , j ) ∈ E w i j W =\\sum_(i,j)∈Ew_ij W=∑(i,j)∈Ewij
为了保持一阶接近,一个直接的方法是最小化以下目标函数
d ( ⋅ , ⋅ ) d(·,·) d(⋅,⋅)为两个分布之间的距离
我们选择最小化两个概率分布的KL散度(KL-divergence)
KL-divergence:https://zhuanlan.zhihu.com/p/425693597
用 K L − 散 度 KL -散度 KL−散度替换 d ( ⋅ , ⋅ ) d(·,·) d(⋅,⋅),并去掉一些常数,我们有
注意,一阶接近只适用于无向图,而不适用于有向图。
通过找到 u ^ i i = 1... ∣ V ∣ \\\\hat u_i \\ _i=1...|V| u^ii=1...∣V∣ 最小化等式(3)
4.1.2 LINE with Second-order Proximity
二阶邻近既适用于有向图,也适用于无向图
给定一个网络,不失一般性的情况下,我们假设它是有向的
一条无向边可以被认为是两个方向相反、权值相等的有向边
二阶接近假设顶点之间有很多连接,它们彼此相似。在这种情况下,每个顶点也被视为一个特定的“上下文”,在“上下文”上具有类似分布的顶点被认为相似。
个人理解:若顶点的上下文分布类似,那么这些节点很可能也是相似的
因此,每个顶点都扮演两个角色:顶点本身和其他顶点的特定“上下文”。
我们引入两个向量 u ⃗ i \\vec u_i ui和 u ⃗ i ′ \\vec u_i^' ui′
- 其中
u
⃗
i
\\vec u_i
论文阅读|深读DANE:Deep Attributed Network Embedding
论文阅读|深读DRNE:Deep Recursive Network Embedding with Regular Equivalence
论文阅读|深读GraLSP: Graph Neural Networks with Local Structural Patterns
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION(VGG网络)-论文阅读笔记
论文阅读|深读VERSE: Versatile Graph Embeddings from Similarity Measures
论文阅读Whisper: Robust Speech Recognition via Large-Scale Weak Supervision