自注意力(Self-Attention)机制浅析

Posted dx1313113

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了自注意力(Self-Attention)机制浅析相关的知识,希望对你有一定的参考价值。

一、自注意力机制概述

  • 循环神经网络由于信息传递的容量以及梯度消失问题,实际上也只能建立短距离依赖关系。

  • 为了建立长距离的依赖关系,可以增加网络的层数或者使用全连接网络。但是全连接网络无法处理变长的输入序列,另外,不同的输入长度,其连接权重的大小也是不同的。

  • 这时,提出了自注意力模型,可以“动态”地生成不同连接的权重

  • 自注意力模型的结构:输入n个,输出也是n个,但是会考虑整个sequence(有context)

自注意力机制实际上是注意力机制的一种,它也是一种网络的构型,它想要解决的问题是网络接收的输入是很多向量,并且向量的大小也是不确定的情况,比如机器翻译(序列到序列的问题,机器自己决定多少个标签),词性标注(Pos tagging 一个向量对应一个标签),语义分析(多个向量对应一个标签)等文字处理以及图像处理中。

二、文字处理中单词向量编码的方式

在文字处理中,我们对单词进行向量编码通常有两种方式:

  1. 独热编码(one-hot encoding):用N位的寄存器对N个状态编码,通俗来讲就是开一个很长很长的向量,向量长度和世界上存在的词语的数量是一样多的,每一项表示一个词语,只要把其中的某一项置1,其他的项都置0,那么就可以表示一个词语,但这样的编码方式没有考虑词语之间的相关性,并且内存占用也很大。

  1. 词向量编码(Word Embedding):将词语映射(嵌入)到另一个数值向量空间,可以通过距离来表征不同词语之间的相关性。

拿词性标注举例,对一个句子来说每一个词向量对应一个标签,初始的想法是可以通过全连接神经网络,但全连接神经网络没有考虑在句子不同位置,单词可能表示不同含义的问题,并且当输入的句子很长,比如是一篇文章的时候,模型的性能下降严重。

三、 自注意力机制如何实现

针对全连接神经网络存在的这个问题,通过自注意力机制来解决,自注意力机制实际上是想让机器注意到整个输入中不同部分之间的相关性,它的实现方法如下:

对于每一个输入向量a,在本例中也就是每一个词向量,经过self-attention之后都输出一个向量b,这个向量b是考虑了所有的输入向量才得到的,这里有四个词向量a对应就会输出四个向量b

那么向量b是如何产生的呢?

自注意力模型经常采用QKV(Query-Key-Value)模式,计算过程如下图所示

步骤1:对于每一个向量a,分别乘上三个系数 , ,得到q,k,v三个值:

写成向量形式:

写成向量形式:

写成向量形式:

得到的Q,K,V分别表示 query,key和value(查询向量,键向量和值向量)

三个W就是我们需要学习的参数

步骤2:利用得到的Q和K计算每两个输入向量之间的相关性,也就是计算attention的值α,α的计算方法有多种,通常采用点乘的方式

写成向量形式:

矩阵A中的每一个值记录了对应的两个输入向量的Attention的大小α

步骤3:对A矩阵进行softmax操作或者relu操作得到A'

步骤4:利用得到的A'和V计算每个输入向量a对应的self-attention层的输出向量b:

,写成向量形式 O=V⋅A′

拿第一个向量对应的self-attention输出向量举例,它的产生过程如下:

先通过三个W矩阵生成q,k,v;然后利用q,k计算attention的值α,再把所有的α经过softmax得到α;最后对所有的v进行加权求和,权重是α,得到对应的self-attention输出的

总结:

四、自注意力机制的问题

自注意力机制虽然考虑了所有的输入向量,但没有考虑到向量的位置信息。在实际的文字处理问题中,可能在不同位置词语具有不同的性质,比如动词往往较低频率出现在句首。

有学者提出可以通过位置编码(Positional Encoding)来解决这个问题:对每一个输入向量加上一个位置向量e,位置向量的生成方式有多种,通过e来表示位置信息带入self-attention层进行计算。

以上是关于自注意力(Self-Attention)机制浅析的主要内容,如果未能解决你的问题,请参考以下文章

自注意力机制(Self-attention Mechanism)——自然语言处理(NLP)

Python深度学习12——Keras实现注意力机制(self-attention)中文的文本情感分类(详细注释)

如何可视化深度学习网络中Attention层

[CVPR2021]Beyond Self-attention External Attention using Two Linear Layers for Visual Tasks

读点论文Focal Self-attention for Local-Global Interactions in Vision Transformers局部和全局注意力进行交互实现新SOTA

偏向锁浅析