偏差-方差分解

Posted laojifuli

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了偏差-方差分解相关的知识,希望对你有一定的参考价值。

1、
偏差-方差分解是解释学习算法泛化性能的一种重要工具,试图对学习算法的期望泛化误差率(generalization error)进行分解。可以分解为三部分,偏差(bias)、方差(variance)和噪声(noise)。其中,
偏差:度量了模型的期望值和真实结果的偏离程度,刻画了模型本身的拟合能力
方差:度量了同样大小的训练集的变动所导致的学习性能的变化,刻画了数据扰动所产生的影响。
噪声:表达了当前任务上任何学习算法所能达到的期望防滑误差的下界,刻画了学习问题本身的难度。

2、
泛化误差:以回归任务为例,学习算法的平方预测误差期望为:
[Err(x) = E[(y-f(x;D))^2]]
方差:在一个训练集(D)上模型(f)对测试样本(x)的预测输出为(f(x;D)),那么学习算法(f)对测试样本(x)的期望预测为:[overline{f}(x) = E_D[f(x;D)]]
上面的期望预测也就是针对不同数据集(D,f)(x)的预测值取其期望,也被叫做average predicted。
使用样本数相同的不同训练集产生的方差为:
[var(x)=E_D[f(x;D)-overline{f}(x))^w]]
噪声:噪声为真实标记与数据集中的实际标记间的偏差
[ varepsilon = E_D[(y_D-y)^2] ]
偏差:期望预测与真实标记的误差成为偏差(bias),为了方便起见,我们直接取偏差的平方:
[ bias^2(x)=(overline{f}(x)-y)^2 ]

对算法的期望泛化误差进行分解:

https://www.cnblogs.com/makefile/p/bias-var.html

以上是关于偏差-方差分解的主要内容,如果未能解决你的问题,请参考以下文章

模型方差与偏差

偏差(Bias)、方差(Variance)、噪声、泛化误差

机器学习--偏差和方差

交叉验证,K折交叉验证的偏差和方差分析

理解机器学习中的偏差与方差

机器学习理论知识部分--偏差方差平衡(bias-variance tradeoff)