机器学习笔记:过拟合

Posted UQI-LIUWJ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记:过拟合相关的知识,希望对你有一定的参考价值。

1 过拟合介绍

如果模型设计的太复杂,可能会过拟合

下图的1~5分别代表最高项为1~5次幂的线性回归问题:

 当模型太复杂的时候,虽然训练集上我们得到较小的误差,但是在测试集上,误差就奇大无比

         复杂模型的model space涵盖了简单模型的model space,因此复杂模型在training data上的错误率更小,但并不意味着在testing data 上错误率更小。模型太复杂会出现overfitting。

1.1 高维小样本问题

2 处理过拟合的方法

处理过你和主要有几种方法:

  • 增加数据量(数据量大了之后,根据某种规则去掉一些特征,来实现降维)
  • 特征提取(eg,主成分分析PCA,作用也是实现降维)
  • 正则化(通过给损失函数增加惩罚项来避免过拟合)

2.1 正则化

这是一种解决过拟合的办法——>使曲线平滑一点(这样如果测试集的输入有一点噪声的话,扰动也不会太大)

 注:正则项里面不包括偏差表示,只包括影响梯度的那些函数

 

  •  λ越大,表示越平滑,训练集上的error越大(因为我们越倾向于考虑w的数值大小,而不是我们预测值和实际值之间的error)
  • 【λ太小可能过拟合,λ太大可能欠拟合】

2.1.1 L1正则化(Lasso)

 L1正则化每次更新的数值是恒定的(等值更新)

 2.1.2 L2正则化(ridge)

机器学习笔记:岭回归(L2正则化)_UQI-LIUWJ的博客-CSDN博客

L2正则化每次w更新的比例是恒定的(等比例更新)

L2正则化在w值很大的情况下,下降速度很快;在w很小的情况下,下降速度很慢

以上是关于机器学习笔记:过拟合的主要内容,如果未能解决你的问题,请参考以下文章

局部加权回归欠拟合过拟合 - Andrew Ng机器学习公开课笔记1.3

斯坦福2014机器学习笔记五----正则化

机器学习笔记正则化

吴恩达“机器学习”——学习笔记二

学习笔记1:《机器学习》第二章 模型评估与选择

机器学习中的数学原理——过拟合正则化与惩罚函数