一张图深入的理解FP/FN/Precision/Recall
Posted 算法与编程之美
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了一张图深入的理解FP/FN/Precision/Recall相关的知识,希望对你有一定的参考价值。
由于图片较大,建议右键打开新的窗口以便于阅读!
(1) TP和TN都比较好理解,然而FP和FN容易混淆;
- FP(False Positive)表示错误的正例即错误的将样本中的负例识别为正例,如右图3、4行红色正方形所示;
- FN(False Negative)表示错误的负例即错误的将样本中的正例识别为负例,如右图1、2行红色三角形所示;
(2) 关于评价指标,Accuracy比较好理解,然而Precision和Recall特别容易混淆;
- Precision面向的是检测后的比例,在模型检测后(右图),检测到的所有正例结果包括正确的正例和错误的正例,相对于原始样本来说, 无论是正确的正例还是错误的正例,其检测结果均为正例,故检测结果中,正例的总数为(TP+FP), 那么在这些正例中,有多少是正确的正例呢?答案就是TP/(TP+FP);FP越小,则Precision越大,而FP即为误报为正例数量; 因此,Precision反映的是样本中正例误报的情况。
- Recall面向的是检测前的比例,在原始样本中(左图),所有的正例被模型真正检测出来的有多少?TP即为检测出来的正例个数, 那么原始样本中所有的正例个数是多少呢?答案是检测出来的正例个数加上未检测出来的正例个数; 而未检测出来的正例个数就是原本是正例然而被模型检测为负例,如右图1、2行的红色三角所示,即为错误的负例(FP); 故Recall=TP/(TP+FN);FN越小,则Recall越大,而FN即为漏检为正例的数量;因此Recall反映的是样本中正例漏检的情况。
以上是关于一张图深入的理解FP/FN/Precision/Recall的主要内容,如果未能解决你的问题,请参考以下文章