机器学习笔记 | 第2周

Posted up your sleeve

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记 | 第2周相关的知识,希望对你有一定的参考价值。

本文是学习coursera上的吴恩达机器学习课程后的个人学习笔记,其中有些地方个人认为用英语更好理解,或者是不需要翻译成中文,看懂了就行的地方就会直接引用吴恩达教授的阅读材料。

多变量线性回归(Linear Regression with Multiple Variables)

多变量线性回归就是单变量线性回归的扩展,将一个特征/输入变量扩展到多个特征/输入变量。

多变量线性回归中的代价函数是所有建模的误差平方和,和单变量线性回归类似,多变量线性回归模型及使用梯度下降算法如下图:

梯度下降法的两个小技巧

小技巧1-特征缩放

在面对多维特征问题的时候,要保证这些特征都具有相近的尺度,这可以帮助梯度下降算法更快地收敛。

例如,房价问题,使用两个特征,房屋的尺寸和房间的数量,尺寸的值为0-2000平方英尺,而房间数量的值则是0-5,以两个参数分别为横纵坐标,绘制代价函数的等高线图,能看出图像会显得很扁,梯度下降算法需要非常多次的迭代才能收敛。

机器学习笔记(二) | 第2周

解决方法是尝试将所有特征的尺度都尽量缩放到-1到1之间,如下图:

机器学习笔记(二) | 第2周

实现特征缩放最简单的方法是:

机器学习笔记(二) | 第2周

小技巧2-学习率

梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,不能提前预知,但可以绘制迭代次数和代价函数的图表来预测算法在何时收敛。如下图:

机器学习笔记(二) | 第2周

梯度下降算法的每次迭代受到学习率的影响,如果学习率过小,则达到收敛所需的迭代次数会非常高;如果学习率过大,每次迭代可能不会减小代价函数,可能导致越过局部最小值而无法收敛。

可以多尝试一些学习率值(如0.01,0.03,0.1,1,3,10)

特征和多项式回归

有时候数据不一定适合线性回归方程,所以需要用曲线来拟合数据,通常需要先观察数据然后再决定准备尝试怎样的模型。

正规方程

正规方程是另一种求解最小代价函数值得方法。正规方程通过如下方式找出使得代价函数最小的参数:

机器学习笔记(二) | 第2周

一个使用正规方程求解的例子:

机器学习笔记(二) | 第2周

总结

以上是关于机器学习笔记 | 第2周的主要内容,如果未能解决你的问题,请参考以下文章

ScalersTalk 机器学习小组第 21 周学习笔记(深度学习-10)

机器学习笔记 | 第1周(中英混合)

机电传动控制第五周学习笔记

Deep Learning Nanodegree Foundation笔记第 1 课:课程计划

机器学习周志华 读书笔记 第三章 线性模型

机电传动控制课程第一周学习笔记