机器学习之回归简介

Posted 未央夜色

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习之回归简介相关的知识,希望对你有一定的参考价值。

线性回归

综述

  • 目的是找到一个映射,最能反映二者之间的关系。用来预测当有新的样本输入的时候,输入的结果
  • 线性回归处理的变量必须是连续的。

欠拟合&过拟合
过拟合跟欠拟合是ml算法表现差的两大原因
欠拟合:样本的容量不够引起的
过拟合:如果有特别多的特征,曲线可以拟合的很好,但是丧失了一般性,导致泛化能力差。设

如何处理正则化?
正则化的方法。

算法

使用最小二乘法计算两个参数。

根据输入的样本情况,计算出对应的b0和b1

结果是
y = b0 + b1t

优化

梯度下降算法

一般使用随机梯度下降的算法。随机梯度下降占据更少的资源,并且可以在新的数据到来的时候就完成更新。

方向:求偏导
步长:学习率,工程上需要自己根据经验设定
如何停止:

  • 设定一个值,当上下之间的变化率小于这个数,就认为已经到了底部
  • 下一个大于上一个

损失函数

拟合这些样本的方法有很多,为了能使效果达到最好,需要引入损失函数的概念。
损失函数:为了衡量拟合的效果好坏
不同的算法会定义不同的损失函数,但是目的都是一样的,都是为了衡量模型效果的好坏
损失函数的定义:(平方损失法)
L(Y,f(X))=sum((Y−f(x))**2)/2m

过拟合

模型在训练集上表现很好,但是在验证集上表现不佳。原因是模型在训练集上可能为了迎合噪声,导致效果不佳。
通过观察模型的泛化能力,判断出现了过拟合/欠拟合

  • 数据集增大,增多学习的数据
  • 正则化处理,增大正则化系数。通过加大惩罚,让他更贴近

欠拟合

模型在训练集和测试集上的表现都不好

  • 寻找更多特征
  • 减小正则的系数

正则化

  • L1正则化:基于L1范数。|y - y*|
  • L2正则化:基于L2范数。(|y - y*|)**2

评价

  • 结果容易理解,计算简便
  • 对非线性效果不好
  • 数值型和标称型

进阶

正则化方法

逻辑回归

综述

最优化问题。根据现有数据对分类边界线简历回归公式。逻辑回归本质是在找一条判定边界。
1 寻找回归系数
2 带入Sigmoid函数,得到分类取值概率

  • 名义上是回归,实际上是个分类学习方法。
  • 输出的结果是个概率。

把每个特征上都乘以一个回归系数,然后求和,把求和结果带入到Sigmoid函数中。Sigmoid把结果和分类联系起来
如何确定系数?

确定回归系数

z=w*x+b
w:最佳参数
x:输入的数据
寻找最佳参数?

最优解:

  • 牛顿法
  • 梯度下降法

逻辑回归不考虑要处理的属性是连续/离散的
sigmoid函数。可以把任意的连续的值映射到0-1之间


多分类:
one VS other法则

算法

梯度下降算法

需要大量计算,每次更新都要遍历所有的数据
针对所有的样本而言,进行计算。

随机梯度下降

针对单个样本进行计算。更新权值。可以在新数据到来的似乎就完成参数更新,而不需要读取整个数据集进行批处理运算

优化

这里损失函数的定义,不能用梯度下降,因为他不是凸的。
这里用对数损失函数
cost(hθ(x),y)= −log(hθ(x)) if y=1
−log(1−hθ(x)) if y=0

评价

  • 可解释性强,计算代价不高。
  • 能以概率的形式输出,而非0/1
  • 速度快,效果好,添加新的特征简单
  • 适用于数值型和标称型数据

进阶

正则化

以上是关于机器学习之回归简介的主要内容,如果未能解决你的问题,请参考以下文章

机器学习之回归篇

机器学习之线性回归

机器学习之线性回归

机器学习之线性回归岭回归Lasso回归

系统学习机器学习之特征工程--多重共线性

系统学习机器学习之特征工程--多重共线性