机器学习—线性回归逻辑回归Softmax回归 的区别

Posted 深度机器学习

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习—线性回归逻辑回归Softmax回归 的区别相关的知识,希望对你有一定的参考价值。

1、什么是回归? 

  是一种监督学习方式,用于预测输入变量和输出变量之间的关系,等价于函数拟合,选择一条函数曲线使其更好的拟合已知数据且更好的预测未知数据。

2、线性回归 

  代价函数(平方误差代价函数,加1/2是为了方便求导): 
  技术分享图片 
  梯度下降法: 
  技术分享图片 
  技术分享图片 
  (1) 批处理梯度下降法:每次对全部训练数据进行求导后更新参数,能求得最优解; 

  (2) 增量梯度下降法:每扫描一个训练样本就更新参数,快,训练集很大时选择。 

  正规方程组求解(The normal equations):直接令代价函数对参数求导为0: 
  技术分享图片 
  步长(学习率)的选择:过小,迭代次数非常高;过大,越过最小值无法收敛。0.01,0.03,0.1,0.3,1,3,10

  特征值归一化:多维特征时,需要确保特征的取值范围在相同的尺度内计算过程才会收敛,常用方法有(1) (X- mean(X))/std(X);(2) (X - min) / (max - min)。

3、逻辑回归 

  目的:从训练数据特征学习出一个0/1分类模型。 

  预测函数: 
  技术分享图片 
  优点:计算代价不高,易于理解和实现;缺点:容易欠拟合,分类精度不高 

  观测值的概率:

   技术分享图片  

  损失代价函数: 
  技术分享图片

4. Softmax回归模型 

  当多分类问题时,logistic推广为softmax. 

  假设函数: 
  技术分享图片 
  损失函数: 
  技术分享图片 
  为了解决softmax回归的参数冗余带来的数值问题,可以加入权重衰减项

5. 过拟合和欠拟合如何产生,如何解决? 

  欠拟合:根本原因是特征维度过少,导致拟合的函数无法满足训练集,误差较大;解决方法:增加特征维度; 

  过拟合:根本原因是特征维度过大,导致拟合的函数完美的经过训练集,但对新数据的预测结果差。解决方法:(1)减少特征维度;(2)正则化,降低参数值。

6、逻辑回归和线性回归区别 

  1)线性回归要求变量服从正态分布,logistic回归对变量分布没有要求。 

  2)线性回归要求因变量是连续性数值变量,而logistic回归要求因变量是分类型变量。 

  3)线性回归要求自变量和因变量呈线性关系,而logistic回归不要求自变量和因变量呈线性关系 

  4)因变量不同:logistic回归是分析因变量取某个值的概率与自变量的关系,而线性回归是直接分析因变量与自变量的关系 

  Logistic Regression最大的特点就是将函数值收缩到[0,1]这个范围。















以上是关于机器学习—线性回归逻辑回归Softmax回归 的区别的主要内容,如果未能解决你的问题,请参考以下文章

机器学习之线性回归---logistic回归---softmax回归

机器学习线性回归(最小二乘法/梯度下降法)多项式回归logistic回归softmax回归

逻辑斯谛回归,softmax回归与最大熵模型

《机器学习》第二次作业——第四章学习记录和心得

[机器学习] Coursera ML笔记 - 逻辑回归(Logistic Regression)

机器学习 | 逻辑回归如何实现多分类