准确率(Accuracy) 精确率(Precision) 召回率(Recall)和F1-Measure(精确率和召回率的调和平均值)

简介: 准确率(Accuracy) 精确率(Precision) 召回率(Recall)和F1-Measure(精确率和召回率的调和平均值)Spark 构建分类模型

准确率(Accuracy) 精确率(Precision) 召回率(Recall)和F1-Measure(精确率和召回率的调和平均值)


Spark 构建分类模型

学习分类模型的基础知识以及如何在各种应用中使用这些模型。分类通常指将事

物分成不同的类别。在分类模型中,我们期望根据一组特征来判断事物的类别,这些特征代表了

与物品、对象、事件或上下文相关的属性(变量)。


最简单的分类形式是分为两个类别,即二分类。一般将其中一类标记为正类(记为 1),另

外一类标记为负类(记为1 或者 0)。下图展示了一个二分类的简单例子。例子中输入的特征有

二维,分别用 x 轴和 y 轴表示每一维的值。我们的目标是训练一个模型,它可以将这个二维空间

中的新数据点分成红色和蓝色两类。

先验知识

我们首先将数据的类别统一分为两类:正类和负类。例如:一个数据集中的数据一共有3类,小学生、中学生、高中生。我们的目标是预测小学生,那么标记为小学生的数据就是正类,标记为其他类型的数据都是负类。

数据有两种状态:测试集数据和预测结果数据。对一批测试数据进行预测,结果可以分成四种。

  • TP(True Positive): 原本是正类,预测结果为正类。(正确预测为正类)
  • FP(False Positive): 原本是负类,预测结果为正类。(错误预测为正类)
  • TN(True Negative): 原本是负类,预测结果为负类。(正确预测为负类)
  • FN(False Negative): 原本是正类,预测结果为负类。(错误预测为负类)

如图所示:

10.png

准确率(Accuracy)

对于给定的测试数据集,分类器正确分类的样本数与样本总数之比,就称为准确率,即(TP+TN)/(TP+TN+FP+FN)

精确率(Precision)

在预测结果为正类的数据中,有多少数据被正确预测(原本就是正类),即TP/(TP+FP)。

  对应于检索中的查准率,检索出相关文档数/检索出的文档总数

精确率就是说 在所有预测数据中 的 预测成功率

召回率(Recall)

在测试集中为正类的数据中,有多少数据被正确预测(预测结果是正类),即TP/(TP+FN)。

  对应于检索中的查全率。检索出相关文档数/文档库中相关文档总数

召回率就是说在你所有样本数据

F1-Measure

精确率和召回率的调和平均值:Accuracy * Precision * 2 / (Accuracy + Precision)

11.png

总结

理论上,数据预测的准确率和召回率越接近1,说明预测模型的效果越好。但是实际中也不一定,取决于场景更倾向于哪一种。例如我们去某搜索引擎搜索XX病,一共返回了10条结果,其中5条广告,5条有用的相关信息,那么准确率就是50%,而后台数据库中一共就5条有用的相关信息,召回率却是100%,所以大家就认为这个搜索引擎也能凑合用。


区别精确率和召回率主要记住他们是分母不同就好了,召回率是对应测试集中的正类数据而言,而准确率是对应预测结果为正类的数据而言。


目录
相关文章
|
7月前
|
机器学习/深度学习 计算机视觉
秒懂Precision精确率、Recall召回率-附代码和案例
秒懂Precision精确率、Recall召回率-附代码和案例
|
机器学习/深度学习 算法 搜索推荐
精确率(Precision)和召回率(Recall)
精确率(Precision)和召回率(Recall)是用于评估分类模型性能的指标。它们通常用于二分类问题,例如判断一个样本是正例(Positive)还是负例(Negative)。
6515 0
|
4月前
|
机器学习/深度学习
【机器学习】准确率、精确率、召回率、误报率、漏报率概念及公式
机器学习评估指标中的准确率、精确率、召回率、误报率和漏报率等概念,并给出了这些指标的计算公式。
841 0
|
6月前
|
机器学习/深度学习
精确率和召回率
精确率和召回率
258 2
|
6月前
|
机器学习/深度学习
YOLOv8的多分类模型如何计算准确率(Accuracy)、精确率(Precision)、召回率(recall)和F1-Score模型评估参数
YOLOv8的多分类模型如何计算准确率(Accuracy)、精确率(Precision)、召回率(recall)和F1-Score模型评估参数
|
7月前
|
数据可视化 算法
【视频】分类模型评估:精确率、召回率、ROC曲线、AUC与R语言生存分析时间依赖性ROC实现
【视频】分类模型评估:精确率、召回率、ROC曲线、AUC与R语言生存分析时间依赖性ROC实现
|
7月前
|
算法 数据可视化 PyTorch
YOLOv5性能评估指标->mAP、Precision、Recall、FPS、Confienc (讲解论文关注的主要指标)
YOLOv5性能评估指标->mAP、Precision、Recall、FPS、Confienc (讲解论文关注的主要指标)
2069 0
|
机器学习/深度学习 运维 搜索推荐
机器学习中准确率、精确率、召回率、误报率、漏报率、F1-Score、AP&mAP、AUC、MAE、MAPE、MSE、RMSE、R-Squared等指标的定义和说明
在机器学习和深度学习用于异常检测(Anomaly detection)、电子商务(E-commerce)、信息检索(Information retrieval, IR)等领域任务(Task)中,有很多的指标来判断机器学习和深度学习效果的好坏。这些指标有相互权衡的,有相互背向的,所以往往需要根据实际的任务和场景来选择衡量指标。本篇博文对这些指标进行一个梳理。
机器学习中准确率、精确率、召回率、误报率、漏报率、F1-Score、AP&mAP、AUC、MAE、MAPE、MSE、RMSE、R-Squared等指标的定义和说明
|
数据可视化 计算机视觉
深入了解平均精度(mAP):通过精确率-召回率曲线评估目标检测性能
平均精度(Average Precision,mAP)是一种常用的用于评估目标检测模型性能的指标。在目标检测任务中,模型需要识别图像中的不同目标,并返回它们的边界框(bounding box)和类别。mAP用于综合考虑模型在不同类别上的准确度和召回率。
1052 0
|
机器学习/深度学习
瞎聊机器学习——准确率、精确率、召回率、F1 score
瞎聊机器学习——准确率、精确率、召回率、F1 score