模型评估之过拟合和欠拟合

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了模型评估之过拟合和欠拟合相关的知识,希望对你有一定的参考价值。

参考技术A

在模型评估与调整的过程中,往往会遇到“过拟合”和欠拟合现象,如何有效地识别“过拟合”和“欠拟合”现象,并有针对性地调整模型,是不断改进机器学习模型的关键。

给定一个假设空间F,一个假设f 属于F,如果存在其他的假设f′ 也属于F, 使得在训练集上f 的损失比f′ 小,但在整个样本空间上f′ 比f 的损失小,那么就说假设f 过度拟合训练数据[Mitchell, 1997]。
根据大数定理可知,当训练集大小|D| 趋向于无穷大时, 经验风险就趋向于期望风险 。然而通常情况下,我们无法获取无限的训练样本,并且训练样本往往是真实数据的一个很小的子集或者包含一定的噪声数据,不能很好地反映全部数据的真实分布。经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在未知数据上错误率很高。这就是所谓的过拟合(Overfitting)。
过拟合问题往往是由于 训练数据少和噪声以及模型能力强 等原因造成的。
为了解决过拟合问题,一般在经验风险最小化的基础上再引入参数的正则化
(Regularization),来限制模型能力,使其不要过度地最小化经验风险。这种
准则就是 结构风险最小化(Structure Risk Minimization,SRM)准则

其中||θ||是ℓ2 范数的正则化项,用来减少参数空间,避免过拟合;λ用来控制正则
化的强度。正则化项也可以使用其它函数,比如ℓ1 范数。ℓ1 范数的引入通常会使得参数有一定稀疏性,因此在很多算法中也经常使用。。在贝叶斯学习的角度来讲,正则化是假设了参数的先验分布,不完全依赖训练数据。
除了正则化,还可以从以下几个方面降低过拟合风险。

和过拟合相反的一个概念是欠拟合(Underfitting),即模型不能很好地拟合
训练数据,在训练集的错误率比较高。欠拟合一般是由于模型能力不足造成的。
下图给出了欠拟合和过拟合的示例。

当出现欠拟合现象时,可以尝试冲以下几个方面入,降低欠拟合风险。

总之,机器学习中的学习准则并不仅仅是拟合训练集上的数据,同时也要使得 泛化错误 最低。给定一个训练集,机器学习的目标是从假设空间中找到一个泛化错误较低的“理想”模型,以便更好地对未知的样本进行预测,特别是不在训练集中出现的样本。因此,机器学习可以看作是一个从有限、高维、有噪声的数据上得到更一般性规律的泛化问题。

以上是关于模型评估之过拟合和欠拟合的主要内容,如果未能解决你的问题,请参考以下文章

模型评估:模型状态评估

机器学习:模型评估和选择

——模型评估与选择笔记

周志华 《机器学习初步》模型评估与选择

模型选择 + 过拟合和欠拟合(动手学深度学习v2)笔记

过拟合与欠拟合