AUC 评价指标详解,准确率(ACC),敏感性(sensitivity),特异性(specificity)计算 Python3TensorFlow2入门手册

Posted K同学啊

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了AUC 评价指标详解,准确率(ACC),敏感性(sensitivity),特异性(specificity)计算 Python3TensorFlow2入门手册相关的知识,希望对你有一定的参考价值。

AUC是什么

一句话介绍:AUC(Area under the Curve of ROC)是ROC曲线下方的面积,是判断二分类预测模型优劣的标准。

  • AUC = 1:是完美分类器,绝大多数预测的场合,不存在完美分类器。
  • 0.5 < AUC < 1:优于随机猜测。
  • AUC = 0.5:跟随机猜测一样(例:丢硬币),模型没有预测价值。
  • AUC < 0.5:比随机猜测还差。

ROC曲线的横坐标是伪阳性率(也叫假正类率,False Positive Rate),纵坐标是真阳性率(真正类率,True Positive Rate),相应的还有真阴性率(真负类率,True Negative Rate)和伪阴性率(假负类率,False Negative Rate)。这四类的计算方法如下:

  • 伪阳性率(FPR):在所有实际为阴性的样本中,被错误地判断为阳性的比率。
  • 真阳性率(TPR):在所有实际为阳性的样本中,被正确地判断为阳性的比率。
  • 伪阴性率(FNR)

以上是关于AUC 评价指标详解,准确率(ACC),敏感性(sensitivity),特异性(specificity)计算 Python3TensorFlow2入门手册的主要内容,如果未能解决你的问题,请参考以下文章

A.深度学习基础入门篇[二]:机器学习常用评估指标:AUCmAPISFIDPerplexityBLEUROUGE等详解

1.机器学习之模型评估详解

分类评估指标

F1,AUC的区别与选择

常用的评价指标:accuracyprecisionrecallf1-scoreROC-AUCPR-AUC

混淆矩阵准确率精确率/查准率召回率/查全率F1值ROC曲线的AUC值