清华大学刘洋--基于深度学习的机器翻译

Posted vector11248

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了清华大学刘洋--基于深度学习的机器翻译相关的知识,希望对你有一定的参考价值。

                           <-----  1980                                           2013----------->    

基于规则的机器翻译                    基于统计的机器翻译      基于神经网络的机器翻译

 

——————————————————————————————————————

平行语料库

数据驱动的机器翻译

短语的切分、调序

统计机器翻译的优缺点:

技术图片

然而,用神经网络进行建模,核心思路:用连续替代离散。

技术图片

 

 

RNN 进行句子向量表示

技术图片

 

 hidden layer的最后一个神经元包含了这个句子所携带的所有信息,听起来特别的荒诞,但是就是好用啊。

这时再用decoder解码器进行解码

技术图片

 那么,递归神经网络进行机器翻译,有哪些优缺点呢?

技术图片

 

这时,为了解决“梯度消失”或者“梯度爆炸”的问题,就引入了LSTM。LSTM,引入了“input gate”" forget gate" "output gate"。

技术图片

 

我们的神经网络学习到了什么呢?谷歌到研究人员做了一些可视化的工作。说明,神经网络来进行机器翻译,还是有一定的效果的。

技术图片

 

但是,编码器-解码器架构存在缺点,即(个人理解)在解码过程中的神经元是黑盒的,可解释性很低。

技术图片

 

在这种情况下,注意力机制横空出世。

其核心思想是:集中关注相关的上下文。

技术图片

 

注意力机制是怎么回事呢?

首先,进行一步双向的RNN,双向RNN的好处时,每一个单词都可以获得一个自己全局的地位。

技术图片

 

再根据每个词的重要程度,动态地生成下一个词。

技术图片

 

注意力机制能够有效的提升长句的翻译效果,LSTM是固定原语言的生成,而注意力是动态原语言生成

技术图片

 

技术图片

 

目前,注意力机制也应用在其他领域

技术图片

 

以上是关于清华大学刘洋--基于深度学习的机器翻译的主要内容,如果未能解决你的问题,请参考以下文章

清华大学发布基于元算子和动态编译的深度学习框架-计图(Jittor)

清华大学发布基于元算子和动态编译的深度学习框架-Jittor

业内热点清华大学发布基于元算子和动态编译的深度学习框架- Jittor

2020厦门大学综述翻译:3D点云深度学习(Remote Sensiong期刊)

清华大学开源首个国内高校自研深度学习框架Jittor

斯坦福大学的机器学习跟深度学习。