回归问题的性能度量标准

Posted 小舔哥

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了回归问题的性能度量标准相关的知识,希望对你有一定的参考价值。

我们以$Y = \{ y_1, y_2,...,y_n \}$ 表示真实的数据,以$\hat Y = \{  \hat{y}_1, \hat{y}_2,...,\hat{y}_n\}$表示预测出来的数据

 

1:均方误差 (mean square error)MSE

$MSE = \frac{1}{n} \sum \limits_{i=1}^{n} (y_i – \hat{y}_i)^2$

 

2:均方根误差 (root mean squared error)RMSE

均方根误差是均方误差开根号得到的结果

$RMSE =  \sqrt{ \frac{1}{n} \sum \limits_{i=1}^{n} (y_i – \hat{y}_i)^2 }$

 

3:平均绝对误差 (mean absolute error) MAE

$MAE = \frac{1}{n} \sum \limits_{i=1}^{n} \lvert y_i – \hat{y}_i \rvert$

 

4:均方根对数误差 (root mean squared logarithmic error) RMSLE

$RMSLE =  \sqrt{ \frac{1}{n} \sum \limits_{i=1}^{n} (log(\hat{y}_i  + 1) – log(y_i + 1) )^2 }$

 

使用RMSLE的好处一:

  假如真实值为1000,若果预测值是600,那么RMSE=400, RMSLE=0.510

  假如真实值为1000,若预测结果为1400, 那么RMSE=400, RMSLE=0.336

  可以看出来在均方根误差相同的情况下,预测值比真实值小这种情况的错误比较大,即对于预测值小这种情况惩罚较大。

使用RMSLE的好处二:

  直观的经验是这样的,当数据当中有少量的值和真实值差值较大的时候,使用log函数能够减少这些值对于整体误差的影响。

 

使用sklearn.metrics 来进行计算:

from sklearn.metrics import mean_squared_error
from sklearn.metrics import mean_squared_log_error
from sklearn.metrics import mean_absolute_error

x = [1,2,3,4,5]
y = [2,4,3,2,6]

MSE = mean_squared_error(x, y)
RMSE = MSE ** 0.5
MAE = mean_absolute_error(x, y)
MSLE = mean_squared_log_error(x, y)
RMSLE = MSLE ** 0.5
print(MSE, RMSE, MAE, RMSLE)

结果为:

2.0 1.4142135623730951 1.2 0.3768421477956514

 

参考:

  检测模型结果的时候,除了最常用的MSE,RMSE,Accuracy,AUC等,还有什么吗?

  What is the difference between an RMSE and RMSLE

以上是关于回归问题的性能度量标准的主要内容,如果未能解决你的问题,请参考以下文章

机器学习之性能度量

吴裕雄 python 机器学习——模型选择回归问题性能度量

PySpark MLLib Zeppelin Logistic回归度量标准错误:AssertionError:维度不匹配

性能度量RMSE

模型的度量

机器学习:模型性能度量(performance measure)(待补充)