梯度下降 随机梯度下降 批量梯度下降

Posted aaron12

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了梯度下降 随机梯度下降 批量梯度下降相关的知识,希望对你有一定的参考价值。

梯度下降(GD)

梯度的本意是一个向量,表示某一函数在该点处的方向导数沿着该方向取得最大值,导数对应的是变化率

即函数在该点处沿着该方向变化最快,变化率最大(为该梯度的模)

随机梯度下降(SGD):每次迭代随机使用一组样本

针对BGD算法训练速度过慢的缺点,提出了SGD算法,普通的BGD算法是每次迭代把所有样本都过一遍,每训练一组样本就把梯度更新一次。而SGD算法是从样本中随机抽出一组,训练后按梯度更新一次,然后再抽取一组,再更新一次,在样本量及其大的情况下,可能不用训练完所有的样本就可以获得一个损失值在可接受范围之内的模型了。

批量随即下降(BGD):每次迭代使用所有样本

在深度学习中 数据量非常大时,使用所有样本耗费时将会很长

资料1

以上是关于梯度下降 随机梯度下降 批量梯度下降的主要内容,如果未能解决你的问题,请参考以下文章

梯度下降 随机梯度下降 批量梯度下降

梯度下降法随机梯度下降法小批量梯度下降法

批量梯度下降BGD随机梯度下降SGD和小批量梯度下降MBGD对比

随机梯度下降算法

随机梯度下降批量梯度下降小批量梯度下降分类是什么?有什么区别?batch_size的选择如何实施有什么影响?

NN优化方法对比:梯度下降随机梯度下降和批量梯度下降