Precision, Recall, F1-Score

Posted nowgood

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Precision, Recall, F1-Score相关的知识,希望对你有一定的参考价值。

首先我们先来看一组机器学习评价标准中中常见概念, 总结如下表

术语 缩写 含义
True Positive TP 被模型预测为正的正样本
True Negative TN 被模型预测为负的负样本
False Negative FN 被模型预测为负的正样本
False Positive FP 被模型预测为正的负样本

上述定义解读如下

  • true, false 表明算法预测的正确与否
  • positives, negatives 为模型预测为正例/负例

在理解一个组合的含义时, 先看第二个关键字含义, 然后再看第一个关键字含义

如: True Negative

  • 第二个关键字: Negative, 表明模型将该样例预测为负例
  • 第一个关键字: True, 表明模型预测正确, 所以该样本真实标签就是负例

即该样本为被模型预测为负的负样本

技术分享图片?

Precision, AR

精确率(Precision)是针对预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP),也就是

[ egin{align} f Precision = frac{TP}{TP+FN} ag{1}\\end{align} ]

召回率(Recall)是针对原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

[ egin{align} f Recall = frac{TP}{TP+FP} ag{2} end{align} ]

技术分享图片?

F-Score

维基百科 F1_score
?

F-measure 是一种统计量,F-Measure 又称为 F-Score,F-Measure 是 Precision 和 Recall 加权调和平均,是IR(信息检索)领域的常用的一个评价标准,常用于评价分类模型的好坏. F-measure 综合了 Presion 和 Recall 的结果,当 F-measure 较高时则能说明试验方法比较有效。 F1-Measure 定义如下

[{displaystyle F_{1}=left({frac {mathrm {recall} ^{-1}+mathrm {precision} ^{-1}}{2}} ight)^{-1}=2cdot {frac {mathrm {precision} cdot mathrm {recall} }{mathrm {precision} +mathrm {recall} }}}]

在 F-measure 的通用定义如下,

[ F_eta = (1 + eta^2) cdot frac{mathrm{precision} cdot mathrm{recall}}{(eta^2 cdot mathrm{precision}) + mathrm{recall}} ]

将式(1)和式(2)代入上式

[{displaystyle F_{eta }={frac {(1+eta ^{2})cdot mathrm {true positive} }{(1+eta ^{2})cdot mathrm {true positive} +eta ^{2}cdot mathrm {false negative} +mathrm {false positive} }},} ]

使用 β的平方, 只是为了说明 Presion 上的因子大于 0

?

以上是关于Precision, Recall, F1-Score的主要内容,如果未能解决你的问题,请参考以下文章

一文读懂Accuracy,precision,recall

准确率(accuracy)、召唤率(recall)和精确率(precision)

使用precision_recall_curve 计算最大f1 分数?

Precision、Recall 和 F1 可以是相同的值吗?

ROC 和 Precision-Recall 中的零分母?

输入到precision_recall_curve - predict 或 predict_proba 输出?