论文阅读|深读VERSE: Versatile Graph Embeddings from Similarity Measures
Posted 海轰Pro
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文阅读|深读VERSE: Versatile Graph Embeddings from Similarity Measures相关的知识,希望对你有一定的参考价值。
目录
- 前言
- 简介
- ABSTRACT
- 1 INTRODUCTION
- 2 RELATED WORK
- 3 VERSATILE GRAPH EMBEDDING
- 4 EXPERIMENTS
- 5 CONCLUSIONS
- 读后总结
- 结语
前言
Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研。
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
唯有努力💪
知其然 知其所以然!
本文仅记录自己感兴趣的内容
简介
原文链接:https://dl.acm.org/doi/fullhtml/10.1145/3178876.3186120
会议:WWW '18: Proceedings of The Web Conference 2018 (CCF A类)
代码:https://github.com/xgfs/verse
年度:2018
ABSTRACT
将网络规模的信息网络嵌入到低维向量空间中,可以促进链接预测、分类和可视化等任务
过去的研究解决了通过从单词到图表的方法提取这种嵌入的问题,但没有定义一个明确的可理解的图表相关目标
然而,正如我们所展示的,在过去的工作中使用的目标隐式地利用了图节点之间的相似性度量
我们提出了顶点相似度嵌入(VERSE),一个简单、通用和内存高效的方法,它派生出显式校准的图嵌入,以保持选定的顶点到顶点相似度度量的分布
VERSE通过训练单层神经网络来学习这种嵌入
虽然其默认的可伸缩版本是通过采样相似性信息来实现的,但我们也开发了一个使用每个顶点的完整信息的变体
我们在标准基准和真实数据集上的实验研究表明,以不同的相似性度量实例化的VERSE在主要数据挖掘任务中的精确度和召回率方面优于最先进的方法,并在时间和空间效率方面取代了它们,而可伸缩的基于采样的变体与不可伸缩的完全变体取得了同样好的结果
1 INTRODUCTION
图表数据自然出现在许多领域,包括社交网络、蛋白质网络和web
在过去的几年里,许多图挖掘技术被提出来分析和探索这样的真实网络
通常,这类技术应用机器学习来解决诸如节点分类、链路预测、异常检测和节点聚类等任务
机器学习算法需要一组富有表现力的判别特征来表征图节点和边
为此,可以使用表示节点[18]之间相似性的特性
然而,特性工程是一项乏味的工作,其结果不能很好地跨任务[15]进行转换
特征设计的另一种选择是学习特征向量,或通过解决无监督的优化问题来嵌入
然而,为学习表示设计和解决一个通用的、可处理的优化问题经受了研究的努力
一项研究[11,42]将经典的降维方法(如SVD)应用于图上的相似性矩阵;
然而,这些方法在构造矩阵方面负担过重
虽然最近的方法[33]克服了这一障碍,但由于其线性特性,导致预测任务的质量较差
另一个研究方向是生成捕捉邻域局部性的特征,通常通过一个可以通过随机梯度下降(SGD)优化的目标[37,41]
这种方法依赖于一个隐含的(尽管是刚性的)节点邻域概念;
然而,这种一刀切的方法无法应对现实世界网络和应用程序的多样性
格罗弗等人,[15]看出了local邻里概念的这种不灵活;为了改进它,他们提出了Node2vec,使用两个超参数对[37]的探索策略进行偏置
然而,这种超参数调优的方法增加了三次最坏情况空间复杂度,并迫使用户遍历多个特性集,并衡量在下游任务中获得最佳性能的特性集
此外,即使通过超参数调优找到一个局部邻域,它仍然只代表一个基于局部的特征类
因此,Node2vec没有充分摆脱它试图修补的刚性
我们认为,使用比局部邻域更通用的相似度概念提取特征,可以灵活地解决大量图数据中不同的数据挖掘任务
图1通过在一个图上展示三种不同的相似性,为这种通用的相似性概念提供了一个例子:
- 社区结构指导社区检测任务
- 角色通常用于分类
- 而结构等价定义了知识图中的对等关系
由于现实世界的任务依赖于这些属性的混合
一个多功能的特征学习算法应该能够捕获所有这些相似性
在这篇文章中,我们提出了VERSE,这是我们所知的第一种通用的图嵌入方法,它明确地学习节点之间的任何相似性度量
在它的学习核心中,VERSE站在深度学习方法[12,48]和直接分解相似矩阵[11,42]之间
相反,VERSE训练一个简单而富有表现力的单层神经网络来重建节点之间的相似性分布
因此,在各种大型真实网络和任务上,它在运行时和质量方面都优于以前的方法
由于能够为手头的任务选择任何适当的相似度量,VERSE可以在不改变核心的情况下适应该任务
因此,它充分改善了[15]中观察到的刚性,并将表示学习与特征工程集成在一起:任何相似度量,包括特征工程中开发的相似度量,都可以作为VERSE的输入
为了说明问题,我们使用三个流行的相似度量来实例化我们的通用方法,分别是个性化PageRank (PPR)[34]、SimRank[21]和邻接相似度
我们还表明,通用性并不意味着给用户带来新的负担,只是用相似度量调优替代超参数调优
使用PPR作为相似度量的默认选择,可以在我们研究的几乎所有任务和网络中获得良好的性能
我们总结我们的贡献如下。
- 我们提出了一个通用的图嵌入框架,它明确地学习每个图顶点的任何顶点相似性度量的分布
- 我们通过我们的相似性框架来解释之前的图嵌入,并使用个性化PageRank、SimRank和邻接相似性实例化VERSE
- 我们设计了一个有效的算法,线性图大小,基于单层神经网络最小化从真实的相似性分布到重构的发散
- 在一个彻底的实验评估中,我们表明,versev在各种图挖掘任务中的质量优于最先进的方法,同时更高效
2 RELATED WORK
在缺乏图的通用表示的情况下,图分析任务需要领域专家来制作特征[4,18]或使用专门的特征选择算法[36,40]
最近,人们引入了专门的方法来学习不同图部分[2,31]和在节点[20,55]或边[19,49]上有标注的图的表示
我们专注于学习除了图结构之外没有任何先验或额外信息的图中节点的表示
传统的特征学习通过将拉普拉斯矩阵或邻接矩阵等表示压缩到低维空间来学习特征
该领域的早期工作包括光谱技术[6]和非线性降维[39,44]
在另一种思路中,边际费雪分析[51]分析点数据集的维数降维,作为捕获其统计和几何属性的图的嵌入
这种方法不能应用于大型图,因为它们操作的是密集矩阵
为了克服这一限制,已经做出了一些努力,使用增强的线性代数工具
- Ahmed等[3]采用随机梯度优化快速邻接矩阵特征分解
- Ou等人[33]利用稀疏广义SVD从一个易于分解为两个稀疏邻近矩阵的相似矩阵生成一个图嵌入HOPE
- HOPE是第一个支持不同相似性度量的;但它仍然需要整个图矩阵作为输入,将问题视为线性降维问题,而不是非线性学习问题
- 这样,它不仅偏离了当前关于图嵌入的研究,而且也偏离了以前的工作[51]
表示学习的神经网络方法
机器学习的进步已经导致采用神经方法来学习表示[7]
基于深度学习在图像处理[24]和自然语言处理(Natural Language processing, NLP)等领域的成功[8,29,35]
- word2vec[29]通过训练单层神经网络来猜测文本中给定单词的上下文单词,从而构建单词嵌入
- 同样,GloVe[35]通过变换后的同现矩阵中的随机SVD来学习单词空间。虽然这种基于文本的方法固有地考虑到邻居关系,但它们需要对模型图[37]进行概念上的调整
神经网络图嵌入
神经词嵌入的成功激发了对学习图表示的自然扩展[11,12,15,37,46,48]
- DeepWalk[37]首先提出利用局部节点邻域学习低维向量空间中的潜在表示。它从每个顶点运行一系列固定长度的随机游走,并使用[29]的SkipGram算法创建一个d维顶点表示矩阵。这些表示最大化了在随机游走中观察到相邻顶点的后验概率。DeepWalk嵌入可以使用简单的线性分类器(如逻辑回归)来通知分类任务。
- GraRep[11]建议对对数变换的不同阶DeepWalk转移概率矩阵进行奇异值分解(Singular Value Decomposition, SVD),然后将得到的表示形式串联起来
- Struc2vec[38]重新连接图,以反映节点之间的同构性,并捕获结构相似性,然后依靠DeepWalk核心获得嵌入
- 像[12,48]这样的作品研究了图嵌入的深度学习方法。他们的结果相当于复杂的模型,需要精细的参数调优和计算昂贵的优化,导致时间和空间的复杂性不适合大型图。
然而,所有基于deepwalk的方法都使用了不适合图结构的目标函数
一些作品[15,38,41]试图将图形原生原则注入到学习过程中
- LINE[41]提出了捕获更精细的接近概念的图嵌入。然而,即使是LINE的邻近性概念也局限于每个节点的邻近区域;这不足以捕获节点关系的完整面板[15,33,38]
- 此外,Node2vec[15]引入了两个超参数来调节随机游走的生成,从而以半监督的方式将学习过程定制到身边的图上。然而,Node2vec仍然以保存本地邻域为目标,需要对每个数据集和每个任务进行费力的调优
表1概述了图嵌入的五个理想属性,以及以前的方法拥有这些属性的程度
我们区分了算法的性质
一方面,那些节点之间的任何隐式或显式相似度量的方法可能表示
另一方面
- 局部:不需要整个图矩阵作为输入;GraRep,DNGR和HOPE在这方面失败了
- 可扩展:能够在一天内处理超过106个节点的图;有些方法由于密集矩阵(GraRep)、深度学习计算(SDNE)或两者兼有(DNGR)而不能满足这一标准
- 非线性:采用非线性变换;HOPE依赖于线性降维方法SVD;这不利于它在构建图表示上的性能,就像线性降维方法在一般的[26]中不能赋予其非线性对应方法的优势一样
- 全局:能够建模任何一对节点之间的关系;LINE和SDNE不共享这个属性,因为它们不能看到节点的近邻以外的地方
- 通用性:支持多种相似功能;HOPE做到了这一点,但它的线性特性让它妥协了
3 VERSATILE GRAPH EMBEDDING
VERSE拥有我们的分类法中提到的所有属性
- 它采用非线性变换,适合降维[26]
- 就每个节点所需的输入而言,它是局部的,但就输入的潜在来源而言,它是全局的
- 它是可扩展的,因为它是基于抽样,并由于其通用性而多才多艺(Versatile)
3.1 VERSE Objective
给定一个图 G = ( V , E ) G = (V, E) G=(V,E),
- V = ( v 1 , … , v n ) , n = ∣ V ∣ V = (v_1,…, v_n), n = |V | V=(v1,…,vn),n=∣V∣,是顶点集合
- E ⊆ ( V × V ) E⊆(V × V) E⊆(V×V)是边集合
我们的目的是学习顶点 v ∈ V v∈V v∈V到 d d d维嵌入的非线性表示,其中 d ≪ n d≪n d≪n
- 这样的表示被编码到 n × d n × d n×d矩阵W中
- 节点 v v v的嵌入为行 W v W_v Wv
我们的嵌入反映了给定图相似性的分布 s i m G : V × V → R sim_G: V × V→R simG:V×V→R对于每个节点 v ∈ V v∈V v∈V的分布
因此,我们要求任意顶点 v v v与所有其他顶点 s i m G ( v , ⋅ ) sim_G(v,·) simG(v,⋅)的相似性可以被解释为 ∑ u ∈ V s i m G ( v , u ) = 1 ∑_u∈V sim_G(v, u) = 1 ∑u∈VsimG(v,u)=1的分布
我们的目标是通过一种可扩展的方法来设计 W W W,该方法既不需要 V × V V ×V V×V随机相似矩阵,也不需要它的显式具体化
嵌入空间中对应的节点间相似度为 s i m E : V × V → R sim_E: V × V→R simE:V×V→R
作为优化目标,我们的目标是最小化给定相似度分布 s i m G sim_G simG到嵌入空间中 s i m E sim_E simE的Kullback-Leibler (KL)的发散:
我们使用一个小的相似矩阵来说明这个目标的有用性
图2显示了
- ( a ) (a) (a)个性化PageRank矩阵
- ( b ) (b) (b)用VERSE重建相同矩阵
- ( c ) (c) (c)用SVD重建相同矩阵
可见
- 分布间KL散度的非线性最小化保留了原始矩阵中的大部分信息
- 而基于svd的线性重构无法区分某些节点
图2:一个相似矩阵的例子及其用VERSE和SVD重建。空手道俱乐部图[53],两种方法维数d = 4
3.2 VERSE Embedding Model
s i m E sim_E simE:我们将嵌入空间中两个节点 u , v u, v u,v之间的非归一化距离定义为它们嵌入的点积 W u ⋅ W T v Wu \\cdot W^Tv Wu⋅WTv
然后用softmax对嵌入空间的相似度分布进行归一化:
通过方程1,我们要使 s i m G sim_G simG到 s i m E sim_E simE的 K L KL KL散度最小
忽略只依赖于 s i m G sim_G simG的部分,这个目标等价于最小化交叉熵损失函数[14]:
我们可以通过随机梯度下降来适应这一目标,它允许在每个节点上奇异地更新模型
然而,naïve版本的梯度下降将需要 s i m E sim_E simE和 s i m G sim_G simG的完全具体化
- 即使 s i m G sim_G simG很容易在动态中计算,比如邻接矩阵
- 但等式2中的softmax仍然需要对图中的所有节点进行归一化
我们使用噪声对比估计(NCE)[16,30]
它允许我们学习一个可证明收敛于其目标的模型(参见[17],定理2)
NCE训练一个二分类器来区分来自经验相似性分布 s i m G sim_G simG的节点样本和那些由节点上的噪声分布 Q Q Q产生的节点样本
考虑一个辅助随机变量 D D D用于节点分类
- 对于经验分布得出的节点D = 1
- 对于噪声分布得出的样本D = 0
给定一个从 P P P分布中抽取的节点 u u u和一个从 s i m G ( u , ⋅ ) sim_G (u,·) simG(u,⋅)分布中抽取的节点 v v v
我们从 Q ( u ) Q(u) Q(u)中抽取 s ≪ n s≪n s≪n个节点 v ~ \\tilde v v~,并使用逻辑回归最小化负对数似然:
其中
- P r W Pr_W PrW是由 W W W作为向量 W u W_u Wu与 W v W_v Wv的点积的sigmoid σ ( x ) = ( 1 + e − x ) − 1 σ (x) = (1 + e^−x)^−1 σ(x)=(1+e−x)−1来计算的
而我们计算
s
i
m
E
(
u
以上是关于论文阅读|深读VERSE: Versatile Graph Embeddings from Similarity Measures的主要内容,如果未能解决你的问题,请参考以下文章 论文阅读|深读DANE:Deep Attributed Network Embedding 论文阅读|深读DRNE:Deep Recursive Network Embedding with Regular Equivalence 论文阅读|深读GraLSP: Graph Neural Networks with Local Structural Patterns 论文阅读|深读 GraphSAGE:Inductive Representation Learning on Large Graphs 论文阅读|深读LINE: Large-scale Information Network Embedding 论文阅读|深读 GraphSAGE:Inductive Representation Learning on Large Graphs