一张图深入的理解FP/FN/Precision/Recall

简介: 一张图深入的理解FP/FN/Precision/Recall

image.jpeg

由于图片较大,建议右键打开新的窗口以便于阅读!


(1) TP和TN都比较好理解,然而FP和FN容易混淆;


FP(False Positive)表示错误的正例即错误的将样本中的负例识别为正例,如右图3、4行红色正方形所示;

FN(False Negative)表示错误的负例即错误的将样本中的正例识别为负例,如右图1、2行红色三角形所示;

(2) 关于评价指标,Accuracy比较好理解,然而Precision和Recall特别容易混淆;


Precision面向的是检测后的比例,在模型检测后(右图),检测到的所有正例结果包括正确的正例和错误的正例,相对于原始样本来说, 无论是正确的正例还是错误的正例,其检测结果均为正例,故检测结果中,正例的总数为(TP+FP), 那么在这些正例中,有多少是正确的正例呢?答案就是TP/(TP+FP);FP越小,则Precision越大,而FP即为误报为正例数量; 因此,Precision反映的是样本中正例误报的情况。

Recall面向的是检测前的比例,在原始样本中(左图),所有的正例被模型真正检测出来的有多少?TP即为检测出来的正例个数, 那么原始样本中所有的正例个数是多少呢?答案是检测出来的正例个数加上未检测出来的正例个数; 而未检测出来的正例个数就是原本是正例然而被模型检测为负例,如右图1、2行的红色三角所示,即为错误的负例(FP); 故Recall=TP/(TP+FN);FN越小,则Recall越大,而FN即为漏检为正例的数量;因此Recall反映的是样本中正例漏检的情况。


目录
相关文章
|
8月前
|
算法 数据挖掘 Python
使用python实现FP-Growth算法
使用python实现FP-Growth算法
311 0
|
4月前
|
算法 大数据 网络安全
FP-Growth算法
FP-Growth算法
176 2
|
7月前
|
算法 NoSQL BI
variable precision SWAR算法
variable precision SWAR算法
|
8月前
|
机器学习/深度学习 算法 定位技术
神经网络epoch、batch、batch size、step与iteration的具体含义介绍
神经网络epoch、batch、batch size、step与iteration的具体含义介绍
428 1
|
机器学习/深度学习
正解TP/FP/TN/FN评价指标
正解TP/FP/TN/FN评价指标
494 0
|
人工智能 自然语言处理 PyTorch
使用Unit Scaling进行FP16 和 FP8 训练
Unit Scaling 是一种新的低精度机器学习方法,能够在没有损失缩放的情况下训练 FP16 和 FP8 中的语言模型。
233 0
使用Unit Scaling进行FP16 和 FP8 训练
【学习】loss图和accuracy
【学习】loss图和accuracy
425 0
|
算法 计算机视觉
平均精度均值(Mean Average Precision, mAP)
与目标识别不同,目标检测中不仅仅需要在一张图片中检测到是否含有某物体,还需要将该物体的位置找出来,所以在判定模型的好坏时,就有其标准 —— mAP
782 0
成功解决基于model利用plot_importance()函数出现仅输出一个、两个或者三个等特征(极少的特征)
成功解决基于model利用plot_importance()函数出现仅输出一个、两个或者三个等特征(极少的特征)
成功解决基于model利用plot_importance()函数出现仅输出一个、两个或者三个等特征(极少的特征)
|
机器学习/深度学习 自然语言处理 Python
Word2Vec教程-Negative Sampling 负采样
这篇word2vec教程2中(教程1 Word2Vec教程-Skip-Gram模型),作者主要讲述了skip-gram 模型优化的策略-Negative Sampling,使得模型更加快速地训练。通过教程1,我们了解到word2vec它是一个庞大的神经忘网络! 例如,有一个包含10000个单词的词汇表,向量特征为300维,我们记得这个神经网络将会有两个weights矩阵----一个隐藏层和一个输出层。这两层都会有一个300x10000=3000000的weight矩阵。 在如此大的神经网络上进行梯度下降是非常慢的,更加严重的是,我们需要大量训练数据去调整weights和避免over-fitti
751 0
Word2Vec教程-Negative Sampling 负采样