算法评价指标:准确率+精准率+召回率
Posted Hepburn Yang
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了算法评价指标:准确率+精准率+召回率相关的知识,希望对你有一定的参考价值。
评价指标:
(1)(True Postive TP): 若一个实例是正类,但是被预测成为正类,即为真正类
(2)(True Negative TN): 若一个实例是负类,但是被预测成为负类,即为真负类
(3)(False Postive FP): 若一个实例是负类,但是被预测成为正类,即为假正类
(4)(False Negative FN: 若一个实例是正类,但是被预测成为负类,即为假负类
1代表正类,0代表负类:
准确率(正确率)=所有预测正确的样本/总的样本 (TP+TN)/总
精确率= 将正类预测为正类 / 所有预测为正类 TP/(TP+FP)
召回率 = 将正类预测为正类 / 所有正真的正类 TP/(TP+FN)
F值 = 精确率 * 召回率 * 2 / ( 精确率 + 召回率) (F 值即为精确率和召回率的调和平均值)
1、准确率(Accuracy)
准确率(accuracy)计算公式为:
注: 准确率是我们最常见的评价指标,而且很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好。 准确率确实是一个很好很直观的评价指标,但是有时候准确率高并不能代表一个算法就好。比如某个地区某天地震的预测,假设我们有一堆的特征作为地震分类的属性,类别只有两个:0:不发生地震、1:发生地震。一个不加思考的分类器,对每一个测试用例都将类别划分为0,那那么它就可能达到99%的准确率,但真的地震来临时,这个分类器毫无察觉,这个分类带来的损失是巨大的。为什么99%的准确率的分类器却不是我们想要的,因为这里数据分布不均衡,类别1的数据太少,完全错分类别1依然可以达到很高的准确率却忽视了我们关注的东西。再举个例子说明下。在正负样本不平衡的情况下,准确率这个评价指标有很大的缺陷。比如在互联网广告里面,点击的数量是很少的,一般只有千分之几,如果用acc,即使全部预测成负类(不点击)acc也有 99% 以上,没有意义。因此,单纯靠准确率来评价一个算法模型是远远不够科学全面的
2 、精确率(Precision):
精确率是针对预测结果而言的,表示预测为正的样本中有多少是真正的正样本,预测为正的样本中有两种可能:
一种是把正类预测为正(TP),一种是把负类预测为正(FP)
3、召回率(Recall):
召回率是针对我们原来的样本而言,它表示样本中的正类有多少被预测正确了,有两种可能,一种是把原来的正类预测成正类(TP),一种是把原来的正类预测成负类(FN)
4、f1-score
P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。 F-Measure是Precision和Recall加权调和平均:
以上是关于算法评价指标:准确率+精准率+召回率的主要内容,如果未能解决你的问题,请参考以下文章