week10——随机梯度下降,批量梯度下降小批量梯度下降

Posted ^_^|

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了week10——随机梯度下降,批量梯度下降小批量梯度下降相关的知识,希望对你有一定的参考价值。

批量梯度下降

对于一个数据量非常大的模型,采用批量梯度下降,意味着每一次迭代计算都需要将所有样本数据导入并计算,这是计算量、计算时间消耗非常严重的一步。

随机梯度下降

随机梯度下降法每次迭代更新 θ \\theta θ时,只需要用到一个样本数据,如上图中所示

由于批量下降是通过总体数据得到的新的迭代更新,所以每一次更新的方向都是好的,而随机梯度只由一个数据控制本次更新,所以可能遇到有时更新的未必是好的方向,但是从整体上看, θ \\theta θ整体的更新是往好的方向的(即使损失函数下降到最小的方向)

小批量梯度下降

以上是关于week10——随机梯度下降,批量梯度下降小批量梯度下降的主要内容,如果未能解决你的问题,请参考以下文章

批量梯度下降BGD随机梯度下降SGD和小批量梯度下降MBGD对比

随机梯度下降批量梯度下降小批量梯度下降分类是什么?有什么区别?batch_size的选择如何实施有什么影响?

梯度下降法随机梯度下降法小批量梯度下降法

原Coursera—Andrew Ng机器学习—Week 10 习题—大规模机器学习

浅谈梯度下降与模拟退火算法

三种梯度下降方法与代码实现