论文阅读|深读ANRL: Attributed Network Representation Learning via Deep Neural Networks

Posted 海轰Pro

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文阅读|深读ANRL: Attributed Network Representation Learning via Deep Neural Networks相关的知识,希望对你有一定的参考价值。

目录

前言

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研。
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
唯有努力💪
 

知其然 知其所以然!

 
本文仅记录自己感兴趣的内容

简介

原文链接:https://dl.acm.org/doi/abs/10.5555/3304889.3305099

会议:Twenty-Seventh International Joint Conference on Artificial Intelligence IJCAI-18(CCF A类)

年度:2018

Abstract

网络表示学习(RL)旨在将网络中的节点变换到低维的向量空间中,同时保持网络的固有性质。

虽然网络RL已经得到了广泛的研究,但已有的工作大多集中在网络结构或节点属性信息上。

在本文中,我们提出了一种新的框架,称为ANRL,它原则性地结合了网络结构和节点属性信息。

具体地说,我们提出了一种邻居增强自动编码器来对节点属性信息进行建模,从而重建其目标邻居而不是自身。

为了捕捉网络结构,在属性编码器的基础上设计了属性感知框架图模型,用来描述每个节点与其直接或间接邻居之间的关联。

我们在六个真实世界的网络上进行了广泛的实验,包括两个社交网络、两个引文网络和两个用户行为网络。

实验结果表明,ANRL在节点分类和链路预测任务中都能获得较大的收益。

1 Introduction

网络是探索和模拟现实世界中复杂系统的通用数据结构,包括社交网络、学术网络和万维网等

在大数据时代,网络已经成为高效存储和访问交互实体的关系知识的重要媒介

网络中的知识挖掘一直受到学术界和产业界的关注,例如在线广告定位和推荐

这些任务中的大多数都需要精心设计的模型,其中包含许多专家致力于特征工程,而RL是相对自动特征表示的替代方案

有了RL,网络中的知识发现,如聚类[Narayanan等人,2007年],链接预测[L̈u和周,2011年]和分类[Kazienko和Kajdanowicz,2012年],可以很大程度上通过在低维向量空间中的学习来促进

Network representation learning (RL)


网络RL中的相关工作可以追溯到基于图的降维方法,例如

  • 局部线性嵌入(LLE)[Roweis和Saul,2000]
  • 拉普拉斯特征映射(LE)[Belkin和Niyogi,2003]

LLE和LE都通过构造最近邻图来维护数据空间的局部结构

  • 为了在表示空间中保持连接节点之间的距离更近,计算亲和图的相应特征向量作为其表示

这些方法的一个主要问题是

  • 由于计算特征向量的计算复杂性很高
  • 很难扩展到大型网络

受word2vec模型最近成功的启发[Mikolov等人,2013a;2013b],许多基于网络结构的RL方法已经被提出

并在各种应用中显示出良好的性能[Perozzi等人,2014;曹等人,2015;Tang等人,2015b;Grover和Leskovec,2016;Wang等人,2016]


然而,节点属性信息在许多应用中可能扮演着重要的角色,却没有得到足够的重视

在被称为属性信息网络(AINs) 的真实世界网络中,通常观察到附属于各种属性的节点

例如, 在Facebook社交网络中,用户节点通常与包括年龄、性别、教育程度以及发布内容的个性化简档信息相关联

最近的一些努力通过集成网络拓扑和节点属性信息来探索AINs,以学习更好的表示[Tang等人,2015a;Yang等人,2015;潘等人,2016]。

在AINs中的表示学习仍处于初级阶段,能力相当有限:

  • (1)网络拓扑和节点属性是两个异构的信息源,很难将它们的属性保持在一个共同的向量空间中
  • (2)观测到的网络数据往往是不完整的,甚至是噪声的,这给获取信息表示带来了更多的困难

为了解决上述挑战,我们提出了一个统一的框架,称为ANRL

  • 通过联合集成网络结构和节点属性信息来学习AINs中的健壮性表示
  • 更具体地说,我们利用深度神经网络强大的表示能力来捕捉两个信息源之间的复杂相关性,这两个信息源由邻居增强自动编码器和属性感知跳图模型组成

总而言之,我们的主要贡献如下:

  • 我们提出了一个统一的ANRL框架,该框架无缝地将网络结构接近性和节点属性亲和性集成到低维表示空间中。更具体地说,我们设计了一种邻居增强自编码器,它可以在表示空间中更好地保持数据样本之间的相似性。我们还提出了一个属性感知跳过图模型来捕获结构相关性。这两个组件共享到编码器的连接,编码器捕获节点属性以及网络结构信息
  • 我们通过链路预测和节点分类两项任务,在6个数据集上进行了大量的实验,并实证验证了所提模型的有效性。

2 Related Work

一些早期作品和其他光谱方法的目标是保留数据的局部几何结构,并以更低的维空间表示它们

这些方法是降维技术的一部分,可以被认为是图嵌入的先驱。


近年来,网络表示学习在网络分析中得到了越来越多的关注

他们专注于嵌入一个已有的网络,而不是构建其亲和力图

其中

  • DeepWalk [Perozzi et al., 2014]通过截断随机漫步生成节点序列,将节点序列作为句子,送入跳图模型学习表示
  • Node2vec [Grover and Leskovec, 2016]通过使用宽度优先(BFS)和深度优先(DFS)图搜索来扩展DeepWalk,以探索不同的邻域
  • LINE [Tang等人,2015b]优化了一阶和二阶图邻近性,而不是执行随机漫步
  • 随后,GraRep [Cao等人,2015]提出捕捉k阶关系信息用于图表示
  • SDNE [Wanget al., 2016]将图结构纳入深度自编码器,以保持高度非线性的一阶和二阶邻近性

属性信息网络在许多领域中普遍存在,同时包含网络结构和节点属性信息,有望实现更好的表示

已有的一些算法研究了将这两种信息源联合嵌入统一空间的可能性

  • TADW [Yang等人,2015]将DeepWalk和相关的文本特征纳入矩阵分解框架
  • PTE [Tang等人,2015a]利用标签信息和不同层次的词同现信息来生成预测性文本表示
  • TriDNR [Pan等人,2016]使用来自三方的信息,包括节点结构、节点内容和节点标签(如果有的话),共同学习节点表示

尽管上述方法确实将节点属性信息合并到表示中,但它们是专门为文本数据设计的,不适合许多其他类型的特征

例如,连续的数值特征


最近,一些特征类型独立的表示学习算法被提出,通过无监督或半监督的方式进一步增强性能

这些算法可以处理各种特征类型,并捕获结构接近性和属性亲和力[Huanget al., 2017;廖等,2017;Rossi等人,2018]

  • AANE [Huang等人,2017]是一种分布式嵌入方法,通过分解属性亲和矩阵,利用网络套索正则化惩罚连接节点之间的嵌入差异,联合学习节点表示
  • Planetoid [Yang等人,2016]开发了转导和归纳方法,共同预测图中的类标签和邻域上下文
  • SNE[廖等人,2017]通过利用端到端神经网络模型来捕获网络结构和节点属性信息之间的复杂相互关系来生成嵌入
  • 另一个半监督学习框架SEANO [Liang et al., 2018]以输入样本属性及其平均邻域属性的聚合形式进行输入,以减轻表示学习过程中异常值的负面影响。

异构信息网络中的表示学习也得到了一些研究

  • Metapath2vec [Dong等人,2017]利用基于元路径的随机漫步生成异构节点序列,并使用异构跳图模型学习节点表示
  • [Li等人,2017]提出了一个模型,可以在动态环境而不是静态网络中处理表示学习
  • [Wang et al., 2017]研究了符号信息网络中的表示学习问题。我们把这些可能的扩展留作以后的工作

3 Proposed Model

3.1 Notations and Problem Formulation

属性网络 G : G = ( V , ε , X ) G: G = (V, \\varepsilon, X) G:G=(V,ε,X)

  • V V V:顶点集合
  • ε \\varepsilon ε: 边集合,其实就是 E E E
  • X X X X ∈ R n × m X\\in R^n \\times m XRn×m, 一个编码所有节点属性信息的矩阵, x i x_i xi表示与节点 i i i相关的属性

Definition 3.1

  1. 给定网络 G = ( V , E , X ) G = (V, E, X) G=(V,E,X),我们的目标是通过学习映射函数 f : v i → y i ∈ R d f: v_i →y_i∈R^d f:viyiRd
  2. 将每个节点 i ∈ V i∈V iV表示为低维向量 y i y_i yi,其中 d ≪ ∣ V ∣ d≪|V| dV
  3. 映射函数 f f f不仅保持网络结构,而且保持节点属性接近度

3.2 Neighbor Enhancement Autoencoder

为了对节点的属性信息进行编码,我们设计了一种邻域增强的自编码器模型,以促进抗噪声表示学习过程

同样,邻居增强自编码器由一个编码器和一个解码器组成,而我们的目标是重建它的目标邻居而不是节点本身

值得注意的是,当我们的目标邻居是输入节点本身时,提出的模型退化为传统的自编码器。

具体来说,对于特征向量 x i x_i xi的节点 v i v_i vi和目标邻居函数 T ( ⋅ ) T(·) T(),每一层的隐藏表示定义如下:

其中

  • K K K为编码器和解码器的层数
  • σ ( ⋅ ) σ(·) σ()表示可能的激活函数,如ReLU、sigmod或tanh
  • W ( k ) W^(k) W(k) b ( k ) b^(k) b(k)分别为第 k k k层的变换矩阵和偏置向量
  • x i x_i xi表示与节点 i i i相关的属性

我们的目标是最小化以下自动编码器的损失函数:


其中

  • x ^ i \\hat x_i x^i为解码器的重构输出
  • T ( v i ) T(v_i) T(vi)返回 v i v_i vi的目标邻居

T ( ⋅ ) T(·) T()将先验知识纳入模型,可采用以下两种公式:

  1. Weighted Average Neighbor
  2. Elementwise Median Neighbor

Weighted Average Neighbor

对于给定的节点 v i v_i vi,目标邻域可以计算为相应的加权平均邻域,即
T ( v i ) = 1 ∣ N ( i ) ∣ ∑ j ∈ N ( i ) w i j x j T(v_i) = \\frac1|N(i)|\\sum_j \\in N(i) w_ijx_j T(vi)=N(i)1jN(i)wijxj

其中

  • N ( i ) N(i) N(i)为网络中节点vi的邻居
  • x j x_j xj为节点 v j v_j vj的相关属性
  • 加权网络为 W i j > 0 W_ij > 0 Wij>0,非加权网络为 W i j = 1 W_ij = 1 Wij=1

Elementwise Median Neighbor

与加权平均邻居相似,节点 v i v_i vi的Elementwise Median Neighbor定义为:

T ( v i ) = x ~ i = [ x ~ 1 , x ~ 2 , . . . . , x ~ m ] T(v_i) = \\widetilde x_i = [\\widetilde x_1, \\widetilde x_2, ...., \\widetilde x_m] T(vi)=x i=[x 1,x 2,....,x m]