RNN学习

Posted ylxn

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了RNN学习相关的知识,希望对你有一定的参考价值。

在DNN中,当前输出层的值只和当前输入值有关系。如果当前输出值不仅依赖当前输入值,也依赖于前面时刻的输入值,那么DNN就不适用了。因此也就有了RNN。

 

 

一、RNN结构

技术分享图片

 

其中Xt是t时刻的输入,S是隐藏层。Ot是t时刻的输出。隐藏层St是由前t-1个时刻的隐藏层叠加而成的。把St也可以理解为前t时刻x的记忆叠加而成的隐藏层。

 

二、RNN的前向传播

1、记

技术分享图片

其中σs为激活函数。W是隐藏层S上的权重,如上式所示,作用跟输入一起来迭代S。

 

2、

技术分享图片

其中σt为激活函数

ot为t时刻的输出也是叠加了了t-1之前时刻输入的输出

U为输入层的权重

V为隐藏层到输出层的权重

 

三、 RNN的反向传播(BPTT,back-propagation through time)

为了学习,假设σs为tanh函数,σt为softmax函数。

求参的过程还是和大多数学过的模型求参一样,列出损失函数,例如MSE,交叉熵等,然后用最大似然估计求参数形式,再用SGD随机梯度下降求解。

这里面需要求U、W、V。

1、

技术分享图片

2、

技术分享图片

3、损失函数,在图中,在unfold里面,由于每一点都有一个o,因此每一点都有一个损失。因此总的损失就是每一点损失之和。

技术分享图片

4、记

技术分享图片

oh为模型输出值,没有上标h的o为真实值。

5、对V求导

技术分享图片

6、对W求导。

(1)

技术分享图片

(2)

技术分享图片

(3)由于

技术分享图片

(4)为了解下计算过程,简单起见,设i=2

技术分享图片

以次类推。

7、对U求导

(1)

技术分享图片

(2)

 

技术分享图片

8、有了每个参数的梯度,然后利用SGD可以更新参数了。

 

 

 

以上是关于RNN学习的主要内容,如果未能解决你的问题,请参考以下文章

RNN/LSTM 深度学习模型?

文本分类:Keras+RNN vs传统机器学习

学习Tensorflow的LSTM的RNN例子

PyTorch学习RNN回归

深度学习篇---CNN和RNN结合与对比,实例讲解

RNN概述-深度学习 -神经网络