Attention Is All You Need----Transformer

Posted wode1

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Attention Is All You Need----Transformer相关的知识,希望对你有一定的参考价值。

  Attention Is All You Need

  Transformer

  模型整体架构

  Multi-head attention

  Self-Attention

  Self-Attention工作原理

  Self-Attention算法细节

  Step1

  Step2

  Step3&4

  Step5

  Step6

  Self-Attention的矩阵计算

  郑州妇科:http://www.zzyyrl.com/

  郑州妇科医院:http://www.zzyyrl.com/

  multi-headed 机制

  位置编码

  残差连接

  Decoder

  线性层和 softmax 层

  简述训练过程

  Transformer

  文章链接:

  《Attention Is All You Need》

  想要了解Transformer最好先了解一下seq2seq架构和Attention原理,感兴趣的可以点击以下链接:

  seq2seq模型

  Attention原理

  Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。更准确地讲,Transformer由且仅由self-Attenion和Feed Forward Neural Network组成。

  一个基于Transformer的可训练的神经网络可以通过堆叠Transformer的形式进行搭建,作者的实验是通过搭建编码器和解码器各6层,总共12层的Encoder-Decoder,并在机器翻译中取得了BLEU值得新高。

  作者采用Attention机制的原因是考虑到RNN(或者LSTM,GRU等)的计算限制为是顺序的,也就是说RNN相关算法只能从左向右依次计算或者从右向左依次计算,这种机制带来了两个问题:

  时间片 t 时刻的计算依赖 t-1 时刻的计算结果,这样限制了模型的并行能力;

  顺序计算的过程中信息会丢失,尽管LSTM等门机制的结构一定程度上缓解了长期依赖的问题,但是对于特别长期的依赖现象,LSTM依旧无能为力。

  Transformer的提出解决了上面两个问题,首先它使用了Attention机制,将序列中的任意两个位置之间的距离是缩小为一个常量;其次它不是类似RNN的顺序结构,因此具有更好的并行性,符合现有的GPU框架。

以上是关于Attention Is All You Need----Transformer的主要内容,如果未能解决你的问题,请参考以下文章

为何Transformer论文作者声称“Attention is all you need”?

Transformer 论文:Attention Is All You Need

#论文阅读#attention is all you need

Attention Is All You Need----Transformer

论文解读:Attention Is All You Need

《Attention Is All You Need》算法详解