如何从 Python 中的混淆矩阵中获取精度、召回率和 f 度量 [重复]

Posted

技术标签:

【中文标题】如何从 Python 中的混淆矩阵中获取精度、召回率和 f 度量 [重复]【英文标题】:How to get precision, recall and f-measure from confusion matrix in Python [duplicate] 【发布时间】:2018-06-14 11:21:30 【问题描述】:

我正在使用 Python 并且有一些混淆矩阵。我想通过多类分类中的混淆矩阵来计算精度和召回率以及 f 度量。我的结果日志不包含y_truey_pred,只包含混淆矩阵。

您能告诉我如何从多类分类中的混淆矩阵中获得这些分数吗?

【问题讨论】:

查看***.com/questions/40729875/… 【参考方案1】:

如果你有以下形式的混淆矩阵:

cmat = [[ 5,  7], 
        [25, 37]]

可以制作如下简单函数:

def myscores(smat): 
    tp = smat[0][0] 
    fp = smat[0][1] 
    fn = smat[1][0] 
    tn = smat[1][1] 
    return tp/(tp+fp), tp/(tp+fn)

测试:

print("precision and recall:", myscores(cmat))

输出:

precision and recall: (0.4166666666666667, 0.16666666666666666)

上面的函数也可以扩展生成其他分数,公式在https://en.wikipedia.org/wiki/Confusion_matrix中提到

【讨论】:

非常感谢您的回答。但是我有一个上面没有提到的东西。我想知道的不仅仅是二进制分类的方式。 您应该在您的问题和预期答案中发布示例矩阵。【参考方案2】:

让我们考虑 MNIST 数据分类(10 个类别)的情况,其中对于 10,000 个样本的测试集,我们得到以下混淆矩阵 cm(Numpy 数组):

array([[ 963,    0,    0,    1,    0,    2,   11,    1,    2,    0],
       [   0, 1119,    3,    2,    1,    0,    4,    1,    4,    1],
       [  12,    3,  972,    9,    6,    0,    6,    9,   13,    2],
       [   0,    0,    8,  975,    0,    2,    2,   10,   10,    3],
       [   0,    2,    3,    0,  953,    0,   11,    2,    3,    8],
       [   8,    1,    0,   21,    2,  818,   17,    2,   15,    8],
       [   9,    3,    1,    1,    4,    2,  938,    0,    0,    0],
       [   2,    7,   19,    2,    2,    0,    0,  975,    2,   19],
       [   8,    5,    4,    8,    6,    4,   14,   11,  906,    8],
       [  11,    7,    1,   12,   16,    1,    1,    6,    5,  949]])

为了获得准确率和召回率(每类),我们需要计算每类的 TP、FP 和 FN。我们不需要 TN,但我们也会计算它,因为它将帮助我们进行健全性检查。

真阳性只是对角线元素:

# numpy should have already been imported as np
TP = np.diag(cm)
TP
# array([ 963, 1119,  972,  975,  953,  818,  938,  975,  906,  949])

误报是各列的总和,减去对角线元素(即 TP 元素):

FP = np.sum(cm, axis=0) - TP
FP
# array([50, 28, 39, 56, 37, 11, 66, 42, 54, 49])

同样,假阴性是相应行的总和,减去对角线(即 TP)元素:

FN = np.sum(cm, axis=1) - TP
FN
# array([17, 16, 60, 35, 29, 74, 20, 53, 68, 60])

现在,真底片有点棘手;让我们首先考虑一下 True Negative 到底意味着什么,例如类 0:它意味着所有被正确识别为不是 0 的样本。所以,本质上我们应该做的是从混淆矩阵中移除相应的行和列,然后将所有剩余的元素相加:

num_classes = 10
TN = []
for i in range(num_classes):
    temp = np.delete(cm, i, 0)    # delete ith row
    temp = np.delete(temp, i, 1)  # delete ith column
    TN.append(sum(sum(temp)))
TN
# [8970, 8837, 8929, 8934, 8981, 9097, 8976, 8930, 8972, 8942]

让我们做一个健全性检查:对于每个类,TP、FP、FN 和 TN 的总和必须等于我们的测试集的大小(这里是 10,000):让我们确认一下确实如此:

l = 10000
for i in range(num_classes):
    print(TP[i] + FP[i] + FN[i] + TN[i] == l)

结果是

True
True
True
True
True
True
True
True
True
True

计算完这些数量后,现在可以直接获得每个类别的准确率和召回率:

precision = TP/(TP+FP)
recall = TP/(TP+FN)

在这个例子中是

precision
# array([ 0.95064166,  0.97558849,  0.96142433,  0.9456838 ,  0.96262626,
#         0.986731  ,  0.93426295,  0.95870206,  0.94375   ,  0.9509018])

recall
# array([ 0.98265306,  0.98590308,  0.94186047,  0.96534653,  0.97046843,
#         0.91704036,  0.97912317,  0.94844358,  0.9301848 ,  0.94053518])

类似地,我们可以计算相关量,例如特异性(回想一下,敏感性与召回率是一回事):

specificity = TN/(TN+FP)

我们示例的结果:

specificity
# array([0.99445676, 0.99684151, 0.9956512 , 0.99377086, 0.99589709,
#        0.99879227, 0.99270073, 0.99531877, 0.99401728, 0.99455011])

您现在应该能够针对任何大小的混淆矩阵虚拟计算这些量。

【讨论】:

非常棒的解释。【参考方案3】:

有一个包叫'disarray'。

所以,如果我有四个班级:

import numpy as np
a = np.random.randint(0,4,[100])
b = np.random.randint(0,4,[100])

我可以用disarray来计算13个矩阵:

import disarray

# Instantiate the confusion matrix DataFrame with index and columns
cm = confusion_matrix(a,b)
df = pd.DataFrame(cm, index= ['a','b','c','d'], columns=['a','b','c','d'])
df.da.export_metrics()

给出:

【讨论】:

以上是关于如何从 Python 中的混淆矩阵中获取精度、召回率和 f 度量 [重复]的主要内容,如果未能解决你的问题,请参考以下文章

多类模型的准确率、精度和召回率

一次性计算精度、召回率和 F 分数 - python

Python混淆矩阵中的模型精度为0%

应用分层10折交叉验证时如何在python中获取所有混淆矩阵的聚合

如何使用 LIBSVM 从混淆矩阵中获得分类精度?

CNN keras 中图像的混淆矩阵