metrics.classification_report函数记录
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了metrics.classification_report函数记录相关的知识,希望对你有一定的参考价值。
参考技术A机器学习/深度学习中,我们经常使用sklearn包中的metrics.classification_report来输出评价指标。本文主要是通过示例方式来记录该函数的常见输入与输出的含义。
示例1
其中,
accuracy 表示准确率,也即正确预测样本量与总样本量的比值,即9/13=0.69
macro avg 表示宏平均,表示所有类别对应指标的平均值,即
precision = (1.0+0.67+0.5+0.67+1.0)/5=0.77
recall = (0.67+0.67+0.67+1.0+0.5)/5=0.70
f1-score = (0.8+0.67+0.57+0.8+0.67)/5=0.70
weighted avg 表示带权重平均,表示类别样本占总样本的比重与对应指标的乘积的累加和,即
precision = 1.0*3/13 + 0.67*3/13 + 0.5*3/13 + 0.67*2/13 + 1.0*2/13=0.76
recall = 0.67*3/13 + 0.67*3/13 + 0.67*3/13 + 1.0*2/13 + 0.5*2/13=0.69
f1-score = 0.8*3/13 + 0.67*3/13 + 0.57*3/13 + 0.8*2/13 + 0.67*2/13=0.70
示例2
示例1跟示例2的区别是示例2加入了 target_names 参数,该参数的主要作用是将实际的类别与输出id对应起来。
示例3
对比示例2跟示例3,我们可以看到参数 target_names 中元素的顺序与输出id的大小顺序相同。
示例4
对于 classification_report ,我们通常会看到如下的输出
对比示例1跟示例4两个 classification_report 函数的输出,我们可以看到,示例1输出的是一个 accuracy ,外加两个平均值,而示例4输出的是四个平均值。
造成这种不同的原因是示例4是多标签分类,而示例1是一个单标签分类。
关于示例4输出的四个平均值,我们看看官方的解释
其中, micro avg 、 macro avg 和 weighted avg 针对的对象都是label,而 samples avg 针对的对象则是instance。
label表示示例4中值为1的三个样本中的元素,而instance表示实际的三个样本,具体不同可参考下面四个平均值的计算过程。
说明: classification_report 函数的输出结果标签中0、1、2、3、4表示的是每个样本的5列,每列代表一个标签。因此,对于标签0,表示样本中元素处于第一列的1;对于标签1,表示样本中元素处于第一列的1;以此类推。
micro avg 表示微平均,表示所有类别中预测正确量与总样本量的比值,即
precision = (2+2+1+1) / 8 = 0.750
recall = (2+2+1+1) / 9 = 0.667
f1-score = 2*precision*recall/(precision+recall) = 0.706
macro avg 表示宏平均,表示所有类别对应指标的平均值,即
precision = (1.0+1.0+0.5+1.0+0.0)/5 = 0.700
recall = (1.0+1.0+0.5+1.0+0.0)/5 = 0.700
f1-score = (1.0+1.0+0.5+1.0+0.0)/5 = 0.700
weighted avg 表示带权重平均,表示类别样本占总样本的比重与对应指标的乘积的累加和,即
precision = 1.0*2/9 + 1.0*2/9 + 0.5*2/9 + 1.0*1/9 + 0.0*2/9 = 0.667
recall = 1.0*2/9 + 1.0*2/9 + 0.5*2/9 + 1.0*1/9 + 0.0*2/9 = 0.667
f1-score = 1.0*2/9 + 1.0*2/9 + 0.5*2/9 + 1.0*1/9 + 0.0*2/9 = 0.667
samples avg 表示带权重平均,表示类别样本占总样本的比重与对应指标的乘积的累加和,即
precision = (1/2 + 2/3 + 3/3) / 3 = 0.722
其中,1/2表示第1行中,标签值为1的预测准确率;2/3表示第二行中标签值为1的预测准确率,以此类推
recall = (1/2 + 2/3 + 3/4) / 3 = 0.639
f1-score = ((2*(1/2)*(1/2))/(1/2+1/2) + (2*(2/3)*(2/3))/(2/3+2/3) + (2*(3/3)*(3/4))/(3/3+3/4)) / 3 = 0.675
其中,f1-score的计算过程中,分别为三个样本中标签值为1的f1值的平均值。
至此, classification_report 函数的常见输出结果介绍完成了,在此做个记录,方便自己与他人后续查阅。
以上是关于metrics.classification_report函数记录的主要内容,如果未能解决你的问题,请参考以下文章