1回归 一元线性回归 代价函数 梯度下降法

Posted wholeworld

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了1回归 一元线性回归 代价函数 梯度下降法相关的知识,希望对你有一定的参考价值。

 

1、回归是达尔文表弟发现的,就是说人类总体有一个平均身高。那个高个子生的孩子都个高,矮的孩子生的矮。但是他们的下一代大部分都往平均身高长,也就是说特别高的人,他们的孩子会很高,但是往往比他们自己矮。特别矮的人他们生的孩子会矮一些,但是会比自己的父母高,他们都有这种趋势。表弟管这个叫做回归。

2、一元线性回归 指的是一个自变量对应一个因变量的 一元函数。当平面坐标系中 有些散列的点的时候,我们往往想找到一条直线去拟合他们的回归线。我们管这条直线叫做一元线性回归

技术图片

 

 

假定这个函数为技术图片我们要求的就是这个函数的技术图片技术图片的值 确定了这个值 我们就确定了一元线性回归函数 

 

3、代价函数等于

技术图片

 

很显然 如果技术图片的值能使得技术图片最小 那就是我们要的一元线性回归函数。

 

4、梯度下降法

就是针对代价函数 的两个变量求偏微分,然后这个偏微分的值乘以一个变量 让当前导数的值-变量*学习量。值最小时就是梯度下降法所要的。此时的参数技术图片

 

 就是我们一元线性回归方程需要的两个值。关于学习变量 不要把它想得很神秘 拿到坐标系去研究  它只是为了配合求导的斜率 改变当前变量在坐标系上移动的方向和大小的 仅此而已

技术图片

 

 

发散一下  如果不是 - 而是+ 的话就是求峰值 此时代价函数最大 拟合的最不好

另外有一点 为什么不用微积分中两次求导数 的方法求极值

 

以上是关于1回归 一元线性回归 代价函数 梯度下降法的主要内容,如果未能解决你的问题,请参考以下文章

梯度下降法及一元线性回归的python实现

一元线性回归-梯度下降法-房价预测

Pytorch Note9 线性模型和梯度下降

梯度下降法求解多元线性回归

线性回归和梯度下降

梯度下降法