机器学习笔记:梯度下降

Posted UQI-LIUWJ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记:梯度下降相关的知识,希望对你有一定的参考价值。

1 梯度下降介绍

 我们首先随机一个点,然后沿着梯度方向的反方向寻找最低点

 迭代多次,直到找到局部最优(也有可能是全局最优)【线性回归问题里面,局部最优就是全局最优了】

 

多个参数同理,分别进行梯度下降

2  梯度下降可能存在的问题

        我们可能会找到鞍点,可能会找到局部最优,而且从不同位置出发,可能最终梯度下降的结果会有很大的区别

        

3 梯度下降小tips

3.1 合理调整学习率

pytorch笔记:调整学习率(torch.optim.lr_scheduler)_UQI-LIUWJ的博客-CSDN博客

 3.2 特征缩放

        当我们面对多维度特征问题的时候,我们需要保证这些特征都有相近的尺度,这样会帮助梯度下降更快地收敛。

        

        以上图为例,图像非常扁平,梯度下降算法需要非常多次的迭代才能够收敛

 

        为了更快地收敛,我们将所有特征的尺度放缩到-1~1之间:

 

以上是关于机器学习笔记:梯度下降的主要内容,如果未能解决你的问题,请参考以下文章

机器学习笔记 1 LMS和梯度下降(批梯度下降) 20170617

吴恩达机器学习学习笔记——梯度下降

机器学习笔记:梯度下降

吴恩达机器学习学习笔记——2.7第一个学习算法=线性回归+梯度下降

ng机器学习视频笔记 ——梯度下降算法解释以及求解θ

ng机器学习视频笔记——线性回归代价函数梯度下降基础