一张图深入的理解FP/FN/Precision/Recall

简介: 一张图深入的理解FP/FN/Precision/Recall

image.jpeg

由于图片较大,建议右键打开新的窗口以便于阅读!


(1) TP和TN都比较好理解,然而FP和FN容易混淆;


FP(False Positive)表示错误的正例即错误的将样本中的负例识别为正例,如右图3、4行红色正方形所示;

FN(False Negative)表示错误的负例即错误的将样本中的正例识别为负例,如右图1、2行红色三角形所示;

(2) 关于评价指标,Accuracy比较好理解,然而Precision和Recall特别容易混淆;


Precision面向的是检测后的比例,在模型检测后(右图),检测到的所有正例结果包括正确的正例和错误的正例,相对于原始样本来说, 无论是正确的正例还是错误的正例,其检测结果均为正例,故检测结果中,正例的总数为(TP+FP), 那么在这些正例中,有多少是正确的正例呢?答案就是TP/(TP+FP);FP越小,则Precision越大,而FP即为误报为正例数量; 因此,Precision反映的是样本中正例误报的情况。

Recall面向的是检测前的比例,在原始样本中(左图),所有的正例被模型真正检测出来的有多少?TP即为检测出来的正例个数, 那么原始样本中所有的正例个数是多少呢?答案是检测出来的正例个数加上未检测出来的正例个数; 而未检测出来的正例个数就是原本是正例然而被模型检测为负例,如右图1、2行的红色三角所示,即为错误的负例(FP); 故Recall=TP/(TP+FN);FN越小,则Recall越大,而FN即为漏检为正例的数量;因此Recall反映的是样本中正例漏检的情况。


目录
相关文章
|
5月前
|
算法 NoSQL BI
variable precision SWAR算法
variable precision SWAR算法
|
存储 编解码 语音技术
swr_get_out_samples和swr_convert,比特率重采样
swr_get_out_samples和swr_convert,比特率重采样
198 0
swr_get_out_samples和swr_convert,比特率重采样
|
机器学习/深度学习
正解TP/FP/TN/FN评价指标
正解TP/FP/TN/FN评价指标
429 0
|
人工智能 自然语言处理 PyTorch
使用Unit Scaling进行FP16 和 FP8 训练
Unit Scaling 是一种新的低精度机器学习方法,能够在没有损失缩放的情况下训练 FP16 和 FP8 中的语言模型。
221 0
使用Unit Scaling进行FP16 和 FP8 训练
|
PyTorch 算法框架/工具
Please ensure they have the same size. return F.mse_loss(input, target, reduction=self.reduction) 怎么解决?
这个通常是由于 input 和 target 张量的维度不匹配导致的,因此可以通过调整它们的维度来解决。
317 0
sklearn中的cross_val_score交叉验证
sklearn中的cross_val_score交叉验证
155 0
|
算法 计算机视觉
平均精度均值(Mean Average Precision, mAP)
与目标识别不同,目标检测中不仅仅需要在一张图片中检测到是否含有某物体,还需要将该物体的位置找出来,所以在判定模型的好坏时,就有其标准 —— mAP
699 0
|
数据可视化 计算机视觉
单组学的多变量分析|1.PCA和PLS-DA
单组学的多变量分析|1.PCA和PLS-DA
788 0
单组学的多变量分析|1.PCA和PLS-DA
|
机器学习/深度学习 自然语言处理 Python
Word2Vec教程-Negative Sampling 负采样
这篇word2vec教程2中(教程1 Word2Vec教程-Skip-Gram模型),作者主要讲述了skip-gram 模型优化的策略-Negative Sampling,使得模型更加快速地训练。通过教程1,我们了解到word2vec它是一个庞大的神经忘网络! 例如,有一个包含10000个单词的词汇表,向量特征为300维,我们记得这个神经网络将会有两个weights矩阵----一个隐藏层和一个输出层。这两层都会有一个300x10000=3000000的weight矩阵。 在如此大的神经网络上进行梯度下降是非常慢的,更加严重的是,我们需要大量训练数据去调整weights和避免over-fitti
729 0
Word2Vec教程-Negative Sampling 负采样
|
算法
variable-precision SWAR算法介绍
variable-precision SWAR算法介绍
279 0