RNN梯度问题

Posted dhname

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了RNN梯度问题相关的知识,希望对你有一定的参考价值。

梯度消失的原因

在多层网络中,影响梯度大小的因素主要有两个:权重和激活函数的偏导。深层的梯度是多个激活函数偏导乘积的形式来计算,如果这些激活函数的偏导比较小(小于1)或者为0,那么梯度随时间很容易vanishing;相反,如果这些激活函数的偏导比较大(大于1),那么梯度很有可能就会exploding。因而,梯度的计算和更新非常困难。

解决方案:

使用一个合适激活函数,它的梯度在一个合理的范围。LSTM使用gate function,有选择的让一部分信息通过。gate是由一个sigmoid单元和一个逐点乘积操作组成,sigmoid单元输出1或0,用来判断通过还是阻止,然后训练这些gate的组合。所以,当gate是打开的(梯度接近于1),梯度就不会vanish。并且sigmoid不超过1,那么梯度也不会explode。

 

技术图片

 

 

LSTM的效果:

1、当gate是关闭的,那么就会阻止对当前信息的改变,这样以前的依赖信息就会被学到。

2、当gate是打开的时候,并不是完全替换之前的信息,而是在之前信息和现在信息之间做加权平均。所以,无论网络的深度有多深,输入序列有多长,只要gate是打开的,网络都会记住这些信息。

 

 

技术图片

 

 技术图片

 

 

 

 

以上是关于RNN梯度问题的主要内容,如果未能解决你的问题,请参考以下文章

RNN 梯度消失/爆炸问题的解决方法

无法在 theano 中为 rnn 编写梯度步骤

简单的 vanilla RNN 没有通过梯度检查

RNN中的梯度消失爆炸原因

RNN 训练时梯度爆炸的理解

深度学习面试题33:RNN的梯度更新(BPTT)