吴恩达机器学习学习笔记——梯度下降

Posted JJJanepp

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了吴恩达机器学习学习笔记——梯度下降相关的知识,希望对你有一定的参考价值。

 梯度下降算法能够帮助我们快速得到代价函数的最小值

算法思路:

  • 以某一参数为起始点
  • 寻找下一个参数使得代价函数的值减小,直到得到局部最小值

梯度下降算法:

  • 重复下式直至收敛(收敛是指得到局部最低点的θj后,偏导数的值为零,θj不会再改变)
  • 并且各参数θ0,...,θn必须同时更新,即所有的θj值全部都计算得到新值之后才将参数值代入到代价函数中

上式中的α是学习速率,决定了θj移动的步伐大小。如果α太小,那么θj就会更新的很慢;但是如果α太大,θj就有可能越过最低点,导致偏导数越来越大,最终远离最低点不收敛。

而上式的偏导数的作用十分巧妙,当θj越来越接近局部最低点时,相应地,偏导数会越来越小,因此θj更新的幅度会越来越小,直至收敛。

以上是关于吴恩达机器学习学习笔记——梯度下降的主要内容,如果未能解决你的问题,请参考以下文章

吴恩达机器学习学习笔记——2.7第一个学习算法=线性回归+梯度下降

机器学习|多变量线性回归 | 吴恩达学习笔记

吴恩达-深度学习-课程笔记-7: 优化算法( Week 2 )

《吴恩达深度学习笔记》01.神经网络和深度学习 W2.神经网络基础

吴恩达深度学习笔记

吴恩达深度学习笔记