单变量线性回归

Posted xfbestgood

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了单变量线性回归相关的知识,希望对你有一定的参考价值。

单变量线性回归

单变量线性回归指的是只有一个自变量;

线性回归是一种有监督学习,解决的是自变量和因变量之间的关系;

回归指的是因变量是连续性的,而如果因变量是离散型的,则是分类问题。

 

监督学习算法的工作方式可以用如下这张图表示:

 技术图片

 

       将训练集喂给机器学习算法,输出一个假设函数 h,然后新输入一个自变 x 到假设函数内,然后输出一个因变量 y 值。

    以房价预测为列,特征为房子的大小,因变量是房价。那么对于一个新的房子的大小,我们如何根据历史的数据来预测出来该房子的价格呢?

x)= θ0+θ 1,因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。

 

梯度下降

描述:对赋值,使得按梯度下降最快方向进行,一直迭代下去,最终得到局部最小值。其中是a学习率(learning rate),它决定了我们沿着能让代价函数下降程度最大的方 向向下迈出的步子有多大。

        a 是学习率,控制着梯度下降算法移动的大小,如果 a过小,那么梯度下降算法就一点点地移动,那么可能需要很长的时间才能够找到全局最小值;如果 a 过大,那么又有可能会导致梯度下降算法找不到最小值,甚至导致代价函数无法收敛。

 

梯度下降算法的步骤:

1.先预设一个初始的参数值;

2.然后一直不断地改变这个参数值,来减小代价函数;

3.直到最后代价函数达到一个最小值或者局部最优解。

 技术图片

 

以上是关于单变量线性回归的主要内容,如果未能解决你的问题,请参考以下文章

线性回归——最小二乘法

单变量线性回归:TensorFlow 实战(理论篇)

机器学习入门之单变量线性回归(上)——梯度下降法

R使用lm构建单变量线性回归模型

单变量线性回归:TensorFlow 实战(实战篇)

Tensorflow之单变量线性回归问题的解决方法