论文解读:DTMT: A Novel Deep Transition Architecture for Neural Machine Translation

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文解读:DTMT: A Novel Deep Transition Architecture for Neural Machine Translation相关的知识,希望对你有一定的参考价值。


论文解读:DTMT: A Novel Deep Transition Architecture for Neural Machine Translation

  本文为一篇神经机器翻译的文章,发表在2019AAAI会议上,主要提出一种深度转移网络(Deep Transition),结合多头注意力解决循环神经网络中同一层不同时刻之间shallow的问题。

一、简要信息

序号

属性


1

模型名称

DTMT

2

所属领域

自然语言处理

3

研究内容

神经机器翻译

4

核心内容

Deep Transition RNMT, GRU, Multi-Head Attention

5

GitHub源码

​https://github.com/fandongmeng/StackedDTMT​

6

论文PDF

​https://arxiv.org/pdf/1812.07807​

二、相关背景

  Encoder-Decoder为主的神经网络结构在机器翻译任务中有重大的突破,先前诸多工作都是以Encoder-Decoder为主,一般地Encoder是用于对原始句子source sentence进行特征表示,将句子映射为一定长度的向量;Decoder则是根据对应的向量以及当前已经预测的单词来生成下一个单词,即所谓的自回归模型。Decoder部分的主要目标则是:

论文解读:DTMT:

通常Encoder和Decoder可以选择CNN、RNN、Transformer等模型。本文作者认为以RNN为代表的递归神经机器翻译(RNMT)具有更大的潜力。不过在很多RNN为主的表征过程中,通常通过堆叠多层RNN来挖掘句子信息,换句话说,整个递归过程中,每一个时刻的深度可以通过多层RNN实现,但是对于时刻之间的转移却非常浅。这一问题在许多其他先前工作中也被提出。例如LAU( Linear Associative Unit)提出降低递归单元内部的梯度路径。

  本文提出一种以GRU为主的深度转移递归神经网络模型,Encoder和Decoder均采用该网络模型分别用于编码和解码,Encoder和Decoder通过多头注意力模型相连。

2.1 GRU & T-GRU & L-GRU

  GRU是一种带有门控机制的RNN网络。其输入包括当前时刻 论文解读:DTMT: 的单词input embedding以及上一时刻 论文解读:DTMT: 的隐状态,输出则是当前时刻 论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

其中 论文解读:DTMT: 表示上一时刻的隐状态,论文解读:DTMT: 表示当前时刻更新的信息,其取决于当前的input embedding 和隐状态 论文解读:DTMT:论文解读:DTMT: 分别表示重置门和更新门,论文解读:DTMT:

  T-GRU是一种特殊的GRU,其不同于GRU的是其只有一个输入,且为隐状态,因此更新信息 论文解读:DTMT: 以及两个门只与隐状态 论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

  L-GRU是带有对输入单词input embedding线性变换的“增强版”GRU,L即代表linear。其不同于GRU的在于其输入部分包括三个,前两个与GRU相同,第三个则为input embedding的线性变换 论文解读:DTMT:,门控单元也增加了一个线性变换门 论文解读:DTMT:。公式如下:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

2.2 Deep Transition RNN

  DTRNN主要在不同时刻之间添加深度的网络,相比stack RNN是在纵向加深,DTRNN则是横向加深。如图所示:

论文解读:DTMT:


参考文献【1】率先将深度转移网路引入到机器翻译任务中,其通过在不同时刻的隐状态之间使用一个前馈网路来试图提高相邻状态结点之间的深度。现如今诸多工作也受到DTRNN的启发,例如​​BiDeep RNN​​。

三、DTMT模型

论文解读:DTMT:


模型分为编码器和解码器,其中编码器为encoder transition,解码器为query transition和decoder transition。编码器和解码器之间通过multi-head attention相连。

3.1 L-GRU+T-GRU for encoder

论文解读:DTMT:,前向传播公式为:

论文解读:DTMT:

论文解读:DTMT:

其中论文解读:DTMT:,反向传播公式仅改变箭头即可 。在实验过程中,L-GRU和T-GRU中的参数是共享的。每一个时刻的输出为 论文解读:DTMT:

3.2 L-GRU+T-GRU for decoder

论文解读:DTMT:论文解读:DTMT:

论文解读:DTMT:

论文解读:DTMT:

其中论文解读:DTMT:。这部分是将decoder部分论文解读:DTMT:时刻的输出作为输入,以及上一时刻预测的单词 论文解读:DTMT:作为输入,输出则是L-GRU,再由query transition中的T-GRU进行循环编码。输出部分则与编码器的输出一起喂入一个多头注意力中:

论文解读:DTMT:

多头注意力模型与Transformer的一致,这里不细提。其输出部分则作为decoder transition的输入,另外decoder transition的输入还包括query transition最后一层的T-GRU的输出:

论文解读:DTMT:

论文解读:DTMT:

其中 论文解读:DTMT:

  因此总的来说,在解码过程中,query transition是为了将上一时刻的预测词进行一次深度编码为查询器,用这个查询器从编码器中查询下一个可能的词的隐特征,查询的过程则是使用多头注意力实现alignment对齐,然后通过decoder transition将这个词的隐特征解码并通过full connection映射到标签分布上。

  作者在(中文-英文),(英文-德文),(英文-法文)三个任务上进行了实验,同时实施消融实验(Ablation)验证L-GRU和T-GRU以及结合使用的效果。作者在实验中还使用了dropout用于防止过拟合,label smoothing做标签平滑处理(不采用0-1独热编码,对于其他类都有非0的很小的概率),层级正则化以及位置表征。

【1】 Deep architectures for neural machine translation


以上是关于论文解读:DTMT: A Novel Deep Transition Architecture for Neural Machine Translation的主要内容,如果未能解决你的问题,请参考以下文章

Person ReIDBag of Tricks and A Strong Baseline for Deep Person Re-identification 论文解读

DRN :A Deep Reinforcement Learning Framework for News Recommendation论文解读

DRN :A Deep Reinforcement Learning Framework for News Recommendation论文解读

Person ReIDBag of Tricks and A Strong Baseline for Deep Person Re-identification 论文解读

Person ReIDBag of Tricks and A Strong Baseline for Deep Person Re-identification 论文解读

论文解读《ImageNet Classification with Deep Convolutional Neural Networks》