Stanford NLP 第六课: Long Short Term Memory

Posted redhand

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Stanford NLP 第六课: Long Short Term Memory相关的知识,希望对你有一定的参考价值。

RNN存在着梯度消失的问题, 难以学习长期的依赖关系。如何解决RNN的梯度消失问题? Long  Short Term Memory (LSTM) 就是解决这个问题的。

上图是LSTM的一个整体结构。下面是LSTM的细节。下面的整个模块可以看成是一个Memory Cell。Cell的输入有三个, C_t-1, h_t-1, x_t, 输出有两个C_t, h_t; 三个门控组件。输入门i_t, 遗忘门f_t, 输出门o_t。 新的记忆 c^_t,  空心圆圈表示元素级相乘。

 

一个更加细节一点的示意图。

 

LSTM是怎么解决梯度消失的问题的?(明天继续)

 

以上是关于Stanford NLP 第六课: Long Short Term Memory的主要内容,如果未能解决你的问题,请参考以下文章

数据结构第六课------------狄泰软件学院

第六课作业——主从复制和sentinel高可用

运行 Stanford.NLP.CoreNLP 示例时出现 TypeInitializationException

7.6-UC-第六课:信号处理

第六课: 网络是如何进行学习的

C第六课