机器学习笔记:过拟合
Posted UQI-LIUWJ
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记:过拟合相关的知识,希望对你有一定的参考价值。
1 过拟合介绍
如果模型设计的太复杂,可能会过拟合
下图的1~5分别代表最高项为1~5次幂的线性回归问题:
当模型太复杂的时候,虽然训练集上我们得到较小的误差,但是在测试集上,误差就奇大无比
复杂模型的model space涵盖了简单模型的model space,因此复杂模型在training data上的错误率更小,但并不意味着在testing data 上错误率更小。模型太复杂会出现overfitting。
1.1 高维小样本问题
2 处理过拟合的方法
处理过你和主要有几种方法:
- 增加数据量(数据量大了之后,根据某种规则去掉一些特征,来实现降维)
- 特征提取(eg,主成分分析PCA,作用也是实现降维)
- 正则化(通过给损失函数增加惩罚项来避免过拟合)
2.1 正则化
这是一种解决过拟合的办法——>使曲线平滑一点(这样如果测试集的输入有一点噪声的话,扰动也不会太大)
注:正则项里面不包括偏差表示,只包括影响梯度的那些函数
- λ越大,表示越平滑,训练集上的error越大(因为我们越倾向于考虑w的数值大小,而不是我们预测值和实际值之间的error)
- 【λ太小可能过拟合,λ太大可能欠拟合】
2.1.1 L1正则化(Lasso)
L1正则化每次更新的数值是恒定的(等值更新)
2.1.2 L2正则化(ridge)
机器学习笔记:岭回归(L2正则化)_UQI-LIUWJ的博客-CSDN博客
L2正则化每次w更新的比例是恒定的(等比例更新)
L2正则化在w值很大的情况下,下降速度很快;在w很小的情况下,下降速度很慢
以上是关于机器学习笔记:过拟合的主要内容,如果未能解决你的问题,请参考以下文章