再聊聊梯度消失与梯度爆炸

Posted Python学习与数据挖掘

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了再聊聊梯度消失与梯度爆炸相关的知识,希望对你有一定的参考价值。

随着神经网络的层数变多、结构越来越复杂,模型在训练过程中就会遇到梯度消失和梯度爆炸导致模型不能有效收敛。那么你知道该问题是如何解决的吗?

1 梯度消失与梯度爆炸

神经网络在进行反向传播的过程中,各参数层的梯度计算会涉及到激活函数的导函数取值。具体来说,假设现在有一个三层的神经网络,为输入,为神经网络参数,为激活函数 :

在对反向传播更新时,根据链式法则得:

第一层参数在计算梯度的过程中需要相乘激活函数的导函数,所以当神经网络层数越多时,需要相乘的也越多。

那么当时,就会出现梯度爆炸的情况;当接近时,就会出现梯度消失的情况。

2 sigmoid的梯度更新问题

对于sigmoid激活函数来说,简单的叠加是极容易出现梯度消失的问题。

根据上图不难发现:

  • sigmoid函数的左右两端的区间为函数的饱和区间

  • sigmoid导函数最大值为0.25(在0点处取到),当x较大或者较小时,导函数取值趋于0

3 tanh的梯度更新

首先我们来观察tanh激活函数导函数性质。

对于tanh函数来说,导函数的取值分布在0-1之间的,一定程度上避免了梯度消失的情况,但当影响前几层梯度的其他变量大于1时,就会造成梯度爆炸。

作为sigmoid激活函数的“升级版”,tanh激活函数除了能够一定程度规避梯度消失问题外,还能够生成Zero-Centered Data零点对称数据,而确保下一层接收到Zero-Centered Data这种数据分布是解决梯度消失和梯度爆炸问题的关键。

4 Zero-Centered Data与Glorot条件

通过对sigmoid和tanh激活函数叠加后的模型梯度变化情况分析,可以得出对于深层网络,梯度不平稳是影响模型建模效果的核心因素。

针对梯度不平稳的解决方案(优化方法)总共分为五类,分别是:

  • 参数初始化方法

  • 输入数据的归一化方法

  • 衍生激活函数使用方法

  • 学习率调度方法

  • 梯度下降优化方法

而所有上述优化算法的一个基本理论,是Xavier Glorot在2010年提出的Glorot条件。

5 Zero-centered Data

在介绍Glorot条件之前,我们先讨论关于Zero-Centered Data相关作用,从而帮助我们理解后续Glorot条件。

为了解决梯度消失和梯度爆炸的问题,就需要确保多层神经网络的有效性,即各层梯度不应太大或太小,此时一个最为基本的想法就是,就是让所有的输入数据以及所有层的参数都设置为Zero-Centered Data(零点对称数据)

由于输入和参数都是零点对称的,因此每一个线性层中的导函数取值也能更加平稳,进而确保每一层的梯度基本能维持在平稳的状态。

6 Glorot条件

Xavier Glorot条件在2010年发表的论文中提出,为保证模型本身的有效性和稳定性,希望模型正向传播时,每个线性层输入数据的方差等于输出数据的方差,同时我们也希望反向传播时,数据流经某层之前和流经某层之后该层的梯度也具有相同的方差。

虽然二者很难同时满足,但Glorot和Bengio(论文第二作者)表示,如果我们适当修改计算过程,是可以找到一种折中方案去设计初始参数取值,从而同时保证二者条件尽可能得到满足,这种设计参数初始值的方法也被称为Xavier方法。

在Xavier方法中,最核心解决的问题就是在初始化Zero-Centered参数时,参数的方差该取多少。

7 结尾

由于Glorot条件和Xavier方法是在2010年提出的,那时ReLU激活函数还未兴起,因此Xavier方法主要是围绕tanh激活函数可能存在的梯度爆炸或梯度消失进行的优化,sigmoid激活函数效果次之。

不过尽管如此,Glorot条件却是一个通用条件,后续围绕ReLU激活函数、用于解决神经元活性失效的优化方法(如HE初始化方法),也是遵照Glorot条件进行的方法设计。

可以说Glorot条件是所有模型参数初始化的核心指导思想

推荐文章

技术交流

欢迎转载、收藏、有所收获点赞支持一下!

目前开通了技术交流群,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友

  • 方式①、发送如下图片至微信,长按识别,后台回复:加群;
  • 方式②、添加微信号:dkl88191,备注:来自CSDN
  • 方式③、微信搜索公众号:Python学习与数据挖掘,后台回复:加群

以上是关于再聊聊梯度消失与梯度爆炸的主要内容,如果未能解决你的问题,请参考以下文章

梯度消失与梯度爆炸

深度学习面试题08:梯度消失与梯度爆炸

梯度消失与梯度爆炸

一文读懂:梯度消失(爆炸)及其解决方法

[ DLPytorch ] 循环神经网络进阶&拟合问题&梯度消失与爆炸

[人工智能-深度学习-36]:卷积神经网络CNN - 简单地网络层数堆叠导致的问题分析(梯度消失梯度弥散梯度爆炸)与解决之道