指数加权平均动量梯度下降法RMSpropAdam优化算法

Posted 劳埃德·福杰

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了指数加权平均动量梯度下降法RMSpropAdam优化算法相关的知识,希望对你有一定的参考价值。

目录

1.指数加权平均(exponentially weighted averages)

这里有一年的温度数据。

如果想计算温度的趋势,也就是局部平均值(local average),或者说移动平均值(moving average),怎么做?

:当天的温度,:从当天开始计算前天的平均温度,:从昨天开始计算前天的平均温度。

比如,β=0.9,计算的就是前10天的平均温度,如下图红线所示。β=0.98,计算的就是前50天的平均温度,如下图绿线所示。

为什么是天?

...

...

这些项的系数呈指数级减少

0.37,

当β->1,选定为分界线,从开始,以后的项都可忽略不计,(1-β)=

例:β=0.9,10为分界线,(1-0.9)0.90....+0....

β=0.98,50为分界线,(1-0.98)0.0....+0....

偏差修正(Bias correction)

β=0.98,如果没有进行偏差修正,得到的其实是下图的紫线。

0.02=0.98x0.02+0.02

=5,,算局部平均值的时候,不太合理,偏小

所以,在估测初期要进行一个修正,公式:

:t=2,要修正为,β=0.98

当t越来越大的时候,就近似等于,上图的紫线就和绿线重合了,修正偏差的作用也就不大了。

所以,如果你关心初始时期的偏差,偏差修正能让你在早期获得更好的估测。不在乎早期的偏差,不做修正也问题不大。

指数加权平均优点是只会占很少的内存,计算的时候只需要一行代码,需要知道的信息很少。计算精度肯定不如直接计算前n天的均值,但是后者要保存前n天的数据,更占内存。

2.动量梯度下降法(Gradient descent with momentum)

动量梯度下降法(红线)要快于标准的梯度下降法(蓝线)。

每次迭代,在现有的mini-batch上计算dW,db,更新参数。等式右边的其实是上一状态的值。

两个超参数(hyperparameter):α(学习率)、β(控制着指数加权平均),β常见值等于0.9

3.RMSprop

RMSprop算法同样能加速梯度下降

每次迭代,在现有的mini-batch上计算dW,db,更新参数。

w:=,b:=

RMS:Root Mean Square,均方根

4.Adam优化算法(optimization algorithm)

该算法实际上是将momentumRMSprop这两种算法结合起来,也是为了加速梯度下降,应用广泛

每次迭代,在现有的mini-batch上计算dW,db,更新参数。

偏差修正:

w:=,b:=

超参数:学习率α:需要调整、常用值为0.9、常用值为0.999、ε常用值为

以上是关于指数加权平均动量梯度下降法RMSpropAdam优化算法的主要内容,如果未能解决你的问题,请参考以下文章

指数加权平均动量梯度下降法

深度学习的损失函数优化方法

优化算法之间的关系及各自特点的简单分析

五深度学习优化算法

优化算法

面试时如何完整精确的回答动量下降法(Momentum)和Adam下降法的原理