transformer

Posted jiayibing2333

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了transformer相关的知识,希望对你有一定的参考价值。

?transfomer是谷歌在17年论文 Attention Is All You Need(https://arxiv.org/abs/1706.03762)里提出来的。是为了解决机器翻译问题而生的。在Attention Is All You Need这篇paper中整个模型还是采用encoder-decoder的框架,但是信息抽取器采用的是一种全新的self-attention的抽取器。

感觉现在对transfomer的定义是什么有的地方说法不太一致。 1.有的时候指的是 Attention Is All You Need 里面包括encoder-decoder在内的整个模型(这个时候一般多用于跟这篇文章中的模型结构进行比较,最新的一般只用本文模型中的encoder或者decoder中的一个)。2.有的时候指的是利用self-attention进行信息抽取的这种方法(目前还是这种说法占大多数,这种说法偏向于指特征抽取器,跟LSTM,CNN等进行对比的)。

但是无论怎么讲,transfomer的核心都是指利用self-attention来进行特征抽取的这种方法。其他的地方每个模型可能大大小小会有一些细节的差异。

注:本文中的transfomer指的是Attention Is All You Need这篇paper中encoder-cecoder整体模型

Transofomer 模型整体架构

Transofomer 模型整体架构是一个encoder-decoder架构,如下:

与传统encoder-decoder架构一样,先由encoder部分对信息进行编码,然后decoder利用这些编码后的信息进行解码。

?
技术图片
?
?
图1: Transofomer模型整体架构
?

可以看到左边整体encoders是由一个个小的encoder模块堆叠而成,右边的decoders也是这样。


Encoder 模块

每个encoder模块如图2所示,由一个自注意力层和一个前馈层组成。

?
技术图片
?
?
图2: encoder模块
?

假设encoder模块的输入有三个token,那么encoder中数据流动情况:

?
技术图片
?

 

1.self-attention

 transfomer模型里面最重要的部分就是self-attention,并且这篇paper最大的贡献也是提出了self-attention这种方法。下面对self-attention进行重点的讲解。

传统attention的计算

所谓的attention就是对于q、k、v三个向量,q为query,k为key,v是value。q一般是decoder中某个时间步的隐向量,k,v一般都是encoder的输出向量。先由q和每个k计算出一个score,然后做归一化,即为encoder中每个时间步的权重,然后将每个权重与对应的v相乘然后求和得到上下文向量。

由attention的到的上下文向量会随着decoder每个时间步隐向量的不同而不同,让其对encoder中的每个时间步的内容有不同的关注。

self-attention

self-attention的计算也整体框架也是这样,由q、k、v计算得来。区别就出在self上。self-attention的q、k、v都来自与自身,这使得输入的句子中的每个token可以关注到句子中的其他的token。

具体计算

self-attention里面某个token的q、k、v向量都是这个token的表示向量乘一个转换矩阵而得到的。

之所以会经过一个矩阵转换的原因:1.增加参数数量,增加模型的学习能力 2.将token映射到另一个空间 3.如果都采用他们自身的话,则q,k,v 都会是他自己。可能会出现下面的这个问题:假设token的embedding是一维的,一个句子是:2,2,3,44 则会造成无论对于哪个token来讲与44这个token的score都会是最大的,也就是说会造成token的embed ing值越大则它的权重就会越大导致强者恒强,越来越强。

  1. 计算 q,k,v

    如下图:

    ? , ?,?同理。

?
技术图片
?
  1. 计算 z

    这里计算score用的是点积的方法。

    除以?是进行缩放,防止score之间的差距过大。因为下一步要根据score经过sofmax计算权重,如果差距过大会造成权重过多的集中到某一个token上。

    ?
    技术图片
    ?

 

  1. 把向量运算转为矩阵运算形式

    上面都是用向量的形式进行运算,虽然好理解但是速度慢,转为矩阵运算可以更好的利用gpu进行加速

    首先是经过转换矩阵的映射:

?
技术图片
?

 

然后把Z的计算由向量运算转为矩阵运算:

?
技术图片
?

2. multi-head self-attention

multi-head self-attention 有点类似于多卷积核的感觉。一是可以用来增加参数增加模型表达能力 二是可以用来捕捉不同类型的特征。

每个head里面都有一组不同的?,可以增加模型的参数,并且不同的转换矩阵捕获的特征也不尽相同,这样各异捕获更多的特征。

?
技术图片
?

 

 

3. encoder的输入

encoder有3种embeding的输入:1.token 2:type(可训练) 3 position embeding : 正余弦函数写死的,保证butongtoken在不同位置的embedding 值不一样,写死也不是必须的,因为后面的模型基本上都是把pe变为可训练的了。

 

4 层与层残差连接

encoder中经过self-attention层与前向层之后都有一个残差链接和layer norm,可以让模型可以让encoder模块堆叠的数量更大。

 


 

Decoder 模块

Decoder模块相对于encoder模快多了个encoder-decoder attention 层(位于self-attention层和feed-forward层之间),其余结构相同,也是有残差链接和normalize

encoder-decoder attention 用的还是跟self-attention相同的算法,只不过是来自decoder,k,v来自encoder,所以叫做encoder-decoder attention

 

Encoder Decoder 整体联合起来看

1.整体架构

 

?
技术图片
?

2. decode 过程

从下面动图的过程来看,整个transformer跟普通的encoder-decoder过程一样,decode过程也是一个一个往外吐的过程。

 

?
技术图片
?

 

以上是关于transformer的主要内容,如果未能解决你的问题,请参考以下文章

Transformer中的Self-Attention

xml已经指定了UTF-8编码格式仍然导出中文乱码

使用Java生成XML文件时,如何能让文件自动换行?