机器学习:模型性能度量(performance measure)(待补充)

Posted xbamboo

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习:模型性能度量(performance measure)(待补充)相关的知识,希望对你有一定的参考价值。

对学习器的泛化性能进行评估,不仅需要有效的实验估计方法,还需要有衡量模型泛化性能的评准指标,这就是性能度量。性能度量反应任务需求,对比不同模型能力时,使用不同性能度量能导致不同的评判结果。因此,模型的好坏是相对的,模型不仅取决于算法和数据,还绝对于任务需求。

1. 回归任务中常用的性能度量是“均方误差”(mean squared error)

2. 聚类任务中性能度量分为两类:一类是将聚类结果与某个“参考模型”(reference model)进行比较,成为“外部指标”(external index);另一类是直接考察聚类结果而不利用任何参考模型,成为“内部指标”(internal index)。

3. 分类任务中常用的性能度量

3.1 错误率和精度

  错误率是分类错误的样本数占样本总数的比例

  精度(accuracy)是分类正确的样本数占样本总数的比例

  精度=1-错误率

3.2 查准率、查全率与F1

  查准率(precision),亦是“准确率”,表示查出来为正确的信息有多少是正确的

  查全率(recall),亦是“召回率”,表示查出来为正确的信息占总共正确信息的比例

  对于二分类问题,可将阳历根据真实类别与学习器预测类别的组合划分为真正例(true positive),假正例(false positive),真反例(true negative),假反例(false negative)四种情况,因此TP+FP+TN+FN=样本总数。分类结果的“混淆矩阵”(confusion matrix)如下

  所以查准率P和查全率R分别为:

    

  一般来说,查准率搞得时候, 查全率往往偏低,反之亦然。他们的关系“P-R曲线”如下图:

  

  如果一个学习器的P-R曲线把另外一个学习器的曲线包住,则断言前者优于后者。如果两者相交,则不容易观察,因此常用F1来度量,综合考察查准率和查全率。

  F1是基于查准率和查全率的调和平均(harmonic mean):

  简化得到:

  考虑到由于任务要求不同,对查全率和查准率的偏好不同,还有加权调和平均,在参考书1的第2章。与算数平均((P+R)/2)和几何平均相比,调和平均更重视较小值。但最终我们需要的是查准率和查全率都尽可能高,F1可以很好反应这一点,当查准率和召回率都高的时候,F1的值也高。

  对于分类器比较,F1数值越大越好。

3.3 ROC与AUC

3.4 代价敏感错误率与代价曲线

 

参考书:《机器学习》周志华

     《统计学习方法》 李航

以上是关于机器学习:模型性能度量(performance measure)(待补充)的主要内容,如果未能解决你的问题,请参考以下文章

机器学习模型性能度量详解 Python机器学习系列(十六)

吴裕雄 python 机器学习——模型选择回归问题性能度量

吴裕雄 python 机器学习——模型选择分类问题性能度量

模型的度量

进阶版机器学习之模型性能度量及比较检验和偏差与方差总结(02)

机器学习周志华——学习器性能度量