论文解读:(TransR)Learning Entity and Relation Embeddings for Knowledge Graph Completion

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文解读:(TransR)Learning Entity and Relation Embeddings for Knowledge Graph Completion相关的知识,希望对你有一定的参考价值。


论文解读:(TransR)Learning Entity and Relation Embeddings for Knowledge Graph Completion

  TransH在TransE基础上做出的改进,提高了知识表示的效果,在一定程度上解决了复杂关系的处理,同时在链接预测、三元组分类和关系抽取任务上相比传统的方法(距离模型、非结构模型、单层神经网络、双线性模型等)达到最优,然而TransH也存在一定的问题。TransR作者发现TransH模型虽然有效的处理了复杂语义关系表示,但两个实体仍然处于相同的语义空间,因此不能够充分表示实体与关系的语义联系。

一、简要信息

序号

属性


1

模型名称

TransH

2

所属领域

自然语言处理

3

研究内容

知识表示

4

核心内容

knowledge embedding

5

GitHub源码

​https://github.com/mrlyk423/relation_extraction​​​ 或 ​​https://github.com/thunlp/KB2E​

6

论文PDF

​http://nlp.csai.tsinghua.edu.cn/~lyk/publications/aaai2015_transr.pdf​​)

二、摘要与引言

  知识图谱的完成可以实现目标实体之间的链接预测。本文我们研究了知识图谱表征的方法。最近TransE和TransH模型通过将关系视为一种从头实体到尾实体的翻译机制来获得实体和关系的表征。事实上一个实体可能有多个不同方面(特征),关系可能关注实体不同方面的特征,公共的实体特征空间不足以表征。本文,我们提出TransR模型构建实体和关系表征,将实体空间和关系空间相分离。然后我们以这种方式训练表征向量:首先通过将实体映射到关系空间中,其次在两个投影实体之间构建翻译关系。实验中,我们在三个任务上完成了验证,分别是链接预测、三元组分类和关系抽取。实验效果表明相比之前的基线模型,包括TransE和TransR,得到了一定的提升。

  完善的知识图谱旨在预测给定两个实体对的关系,即链接预测,期现如今面临的挑战包括(1)图谱中的结点包含不同类型和属性的实体、(2)边表示不同类型的关系。对于知识补全,我们不仅仅只是判断实体对是否存在关系,也需要预测具体的关系类。基于此,传统的链接预测方法则无法实现链接预测。最近一种新提出的表示学习是指将实体和关系嵌入到连续的向量空间中。

  TransE和TransH模型是基于这种表示学习。TransE在word2vec的启发之下,通过构建简单的语义表示 论文解读:(TransR)Learning 实现训练,TransH则基于TransE基础上能够对复杂关系进行表示。不过这两个模型均是假定实体和关系是在同一个语义空间中。作者提出一种新的策略,将实体和关系分别映射到不同的语义空间中,分别为entity space(实体空间)和relation space(关系空间)。

  TransR的主要思路如图所示:

论文解读:(TransR)Learning


假设实体对 论文解读:(TransR)Learning ,首先根据当前的关系 论文解读:(TransR)Learning 将头尾实体分别映射到关系空间中 论文解读:(TransR)Learning ,然后在关系空间中建模 论文解读:(TransR)Learning

  另外,在特定的关系下,实体对通常表现出不同的模式,因此不能单纯的将关系直接与实体对进行操作。我们通过将不同的头尾实体对聚类成组,并为每个组学习不同的关系向量来扩展TransR,称为基于聚类的TransR (CTransR)。

三、相关工作与主要贡献

  相关工作部分由于和TransH文章一样,请直接阅读【​​TransH​​】的相关工作部分。

四、算法模型详解(TransR)

  TransR模型:设实体对 论文解读:(TransR)Learning 的表征分别为 论文解读:(TransR)Learning论文解读:(TransR)Learning,其中 论文解读:(TransR)Learning。对于每个关系 论文解读:(TransR)Learning 给定映射矩阵 论文解读:(TransR)Learning ,则有:论文解读:(TransR)Learning论文解读:(TransR)Learning。得分函数定义为 论文解读:(TransR)Learning 。约束条件为 论文解读:(TransR)Learning论文解读:(TransR)Learning论文解读:(TransR)Learning论文解读:(TransR)Learning论文解读:(TransR)Learning
  CTransR模型:受到piecewise linear regression(分段线性回归)的启发。
(1)首先将输入示例分为多个组。对于特定的关系 论文解读:(TransR)Learning ,所有的实体对 论文解读:(TransR)Learning 可被聚类到多个簇中,每个簇中的实体对可被认为与关系 论文解读:(TransR)Learning 有关。
(2)为每个簇对应的关系向量 论文解读:(TransR)Learning表征,并得到对应的 论文解读:(TransR)Learning ,然后将每个簇中的头实体和尾实体映射到对应关系空间中 论文解读:(TransR)Learning论文解读:(TransR)Learning。得分函数定义为 论文解读:(TransR)Learning
  TransR和CTransR的区别在于两者的关系空间不同,前者只有一个关系空间,亦即对所有的关系都在同一个空间中;后者则是根据不同的关系,对属于同一个关系的所哟实体对聚集在一个簇中,每个关系代表不同的空间。
  损失函数:损失函数与之前的一样:

论文解读:(TransR)Learning

  作者指出训练策略与负样本构建则与TransH一样,因此在此不做详细讲解。

五、实验及分析

  实验主要包括三个任务,实验的具体细节与TransH相同 ,不做详细介绍。

(1)链接预测:

论文解读:(TransR)Learning


(2)三元组分类:

论文解读:(TransR)Learning


(3)关系抽取:

论文解读:(TransR)Learning

六、论文总结与评价

  本文作者提出的TransR和CTransR模型可以将相同关系的三元组映射到对应关系的空间中,有效的对三元组进行语义表示,在包括链接预测、三元组分类和关系抽取任务上均实现最好效果。作者提出三个未来工作,包括(1)利用推理信息增强图谱的表征;(2)探究文本与图谱的表示模型;(3)基于CTransR,研究更复杂的模型。
  TransR模型巧妙的借鉴了TransH模型的空间投影想法,更细致的将不同的关系作为不同的投影空间,试想一下,每个三元组中的两个实体之所以在同一个三元组,很大程度上是因为两个实体的某些特性符合当前的关系,而这些特性在这个关系所在的语义空间中满足一定的规律,亦即 论文解读:(TransR)Learning
  TransR还有一些缺点。例如引入的空间投影策略增加了计算量、头尾实体一同投影到关系空间,而未考虑到头尾实体的不同语义类型、仅将实体投影到关系空间中还不够完全提高语义表能力等。TransD模型试图改进这些不足之处。


以上是关于论文解读:(TransR)Learning Entity and Relation Embeddings for Knowledge Graph Completion的主要内容,如果未能解决你的问题,请参考以下文章

论文解读: Learning to AutoFocus

论文解读(node2vec)《node2vec Scalable Feature Learning for Networks》

论文代码解读 Hierarchical Reinforcement Learning for Scarce Medical Resource Allocation

A Unified Deep Model of Learning from both Data and Queries for Cardinality Estimation 论文解读(SIGMOD 2

Adaptive Personalized Federated Learning 论文解读+代码解析

论文解读(ID-MixGCL)《ID-MixGCL: Identity Mixup for Graph Contrastive Learning》