机器学习 Fbeta-Measure 指标详解

简介: 在江西VTE风险预测和山东案件自动分发比赛中,笔者见到了F2-Score评估指标,此类指标与以往F1-Score不同,出题方选择使用不同的beta权重来更加侧重Precision或者Recall某一指标,所以在实际中常常需要根据具体情况做出取舍,例如一般的搜索情况,在保证召回率的条件下,尽量提升精确率。而像癌症检测、地震检测、金融欺诈等,则在保证精确率的条件下,尽量提升召回率。

为了让加深我们印象,这里我们把直接放上关于精确率和召回率的解释,如果大家忘记的话,以后不妨来多看看


  • 精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。
  • 召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。


Fbeta指标简介


Fbeta-measure 是一种可配置的单分指标,用于根据对正类的预测来评估二元分类模型。

Fbeta-measure 是使用精度和召回率计算的。

精度是计算正类的正确预测百分比的指标。Recall计算所有可能做出的正面预测中正面类别的正确预测的百分比。最大化精度将最小化假阳性错误,而最大化召回将最小化假阴性错误。

的F值被计算为的精确度和召回的调和平均,每一种有相同的加权。它允许使用单个分数同时考虑精度和召回来评估模型,这在描述模型的性能和比较模型时很有帮助。

所述Fbeta是F值增加了β的配置参数的概括。默认的 beta 值为 1.0,这与 F-measure 相同,也就是我们常见的F1-Score。较小的 Beta 值,例如 0.5,在计算分数时赋予精度更高的权重而较少召回率,而较大的 Beta 值(例如 2.0)赋予精度较低的权重和较高的召回率权重。

当准确率和召回率都很重要,但需要侧重其中一个时,例如当假阴性比假阳性更重要时,或者相反时,Fbtea将会是一个很有用的指标。


精确率和召回率


在我们深入研究 Fbeta指标之前,我们还是要回顾用于评估分类模型所做预测的精确率和召回率度量的基础知识。


混淆矩阵


【混淆矩阵】总结了通过为每个类的模型进行的预测,和到这些预测实际上属于的类的数量,它有助于了解模型产生的预测错误的类型。

最简单的混淆矩阵是针对二类分类问题,具有负(0 类)和正(1 类)类。在这种类型的混淆矩阵中,表格中的每个单元格都有一个特定且易于理解的名称,总结如下:

| Positive Prediction | Negative Prediction
Positive Class | True Positive (TP)  | False Negative (FN)
Negative Class | False Positive (FP) | True Negative (TN)


精确率和召回率指标是根据混淆矩阵中的单元格定义的,特别是像真阳性和假阴性这样的术语。


精确率


精确率是一种量化正确预测数量的指标。它的计算方法是正确预测的正例的个数除以预测的正例总数。

结果是一个介于 0.0(无精度)和 1.0(完全或完美精度)之间的值。精确率的直觉是它不关心假阴性,它最大限度地减少了假阳性。我们可以用下面的一个小例子来证明这一点。

# 导入
from sklearn.metrics import precision_score
# no precision
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
score = precision_score(y_true, y_pred)
print('No Precision: %.3f' % score)
# 一些假阳性
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 1, 1, 1, 1, 1, 1, 1]
score = precision_score(y_true, y_pred)
print('Some False Positives: %.3f' % score)
# 一些假阴性
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 0, 0, 1, 1, 1]
score = precision_score(y_true, y_pred)
print('Some False Negatives: %.3f' % score)
# 完美精确率
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
score = precision_score(y_true, y_pred)
print('Perfect Precision: %.3f' % score)


运行示例演示了计算所有不正确和所有正确预测类标签的精度,分别显示无精度(精确率为0)和完美精度(精确率为1)。预测某些错误正样本的示例显示精确率会显著下降,突出表明该指标与最小化false positives有关。预测一些假阴性的示例显示出100%的精确率,突出表明该度量与假阴性无关

No Precision: 0.000
Some False Positives: 0.714
Some False Negatives: 1.000
Perfect Precision: 1.000


召回率


Recall 是一个度量从可能做出的所有正面预测中做出的正确正样本预测的数量。

它的计算方法是正确预测的正例的比率除以可预测的正例总数。

结果是一个介于 0.0(无召回)和 1.0(完全或完美召回)之间的值。

召回的直觉是它不关心 false positives,它最大限度地减少了false negatives。我们可以用下面的一个小例子来证明这一点。

# intuition for recall
from sklearn.metrics import recall_score
# 没有召回
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
score = recall_score(y_true, y_pred)
print('No Recall: %.3f' % score)
# 一些假阳性
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 1, 1, 1, 1, 1, 1, 1]
score = recall_score(y_true, y_pred)
print('Some False Positives: %.3f' % score)
# 一些假阴性
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 0, 0, 1, 1, 1]
score = recall_score(y_true, y_pred)
print('Some False Negatives: %.3f' % score)
# 完美召回
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
score = recall_score(y_true, y_pred)
print('Perfect Recall: %.3f' % score)


运行该示例演示了计算所有不正确和所有正确预测类别标签的召回率,分别显示无召回率和完美召回率。预测某些误报的正样本示例显示了完美的召回率,突出表明该度量与假阳性无关。预测一些假阴性的示例显示召回率下降,突出表明该措施与最小化假阴性有关。

No Recall: 0.000
Some False Positives: 1.000
Some False Negatives: 0.600
Perfect Recall: 1.000


现在我们熟悉了精确率和召回率,让我们回顾一下 F-measure。


F-measure


准确率和召回率衡量了正类可能出现的两种错误类型。

最大限度地提高精确率可以最大限度地减少假阳性,最大限度地提高召回率可以最大限度地减少假阴性。

F-Measure 或 F-Score 提供了一种将精度和召回率结合到一个能够同时捕获这两个属性的度量中的方法。

这是两个精确率和召回率的调和平均值


结果是一个介于最差 F 测量的 0.0 和完美 F 测量的 1.0 之间的值。

F-measure 的直觉是这两个度量在重要性上是平衡的,只有良好的精度和良好的召回率共同导致良好的 F-measure。


最差情况


首先,如果所有样本都被刚好错误预测,我们的精度和召回率将为零,从而导致 F-measure 为零;例如:

# worst case f-measure
from sklearn.metrics import f1_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
# no precision or recall
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [1, 1, 1, 1, 1, 0, 0, 0, 0, 0]
p = precision_score(y_true, y_pred)
r = recall_score(y_true, y_pred)
f = f1_score(y_true, y_pred)
print('No Precision or Recall: p=%.3f, r=%.3f, f=%.3f' % (p, r, f))


运行该示例,我们可以看到在最坏情况下的 F 度量中没有任何精度或召回率。

No Precision or Recall: p=0.000, r=0.000, f=0.000


最好情况


相反,完美的预测将导致完美的精确度和召回率,进而获得完美的 F 度量,例如:

# best case f-measure
from sklearn.metrics import f1_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
# perfect precision and recall
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
p = precision_score(y_true, y_pred)
r = recall_score(y_true, y_pred)
f = f1_score(y_true, y_pred)
print('Perfect Precision and Recall: p=%.3f, r=%.3f, f=%.3f' % (p, r, f))


运行这个例子,我们可以看到完美的精度和召回导致完美的 F-measure。

Perfect Precision and Recall: p=1.000, r=1.000, f=1.000


50% 准确率,100%召回


不可能有完美的精确度而没有召回,或者没有精确度和完美的召回。准确率和召回率都需要预测真阳性。考虑我们为所有情况预测正类的情况。这将为我们提供 50% 的准确率,因为一半的预测是误报。它会给我们完美的回忆,因为我们不会出现假阴性。对于我们在示例中使用的平衡数据集,一半的预测是真阳性,一半是假阳性;因此,精度比将为 0.5% 或 50%。将 50 感知精度与完美召回相结合将导致惩罚 F 度量,特别是介于 50% 和 100% 之间的调和平均值。

下面的示例演示了这一点。

# perfect precision f-measure
from sklearn.metrics import f1_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
# 50% precision, 100% recall
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
p = precision_score(y_true, y_pred)
r = recall_score(y_true, y_pred)
f = f1_score(y_true, y_pred)
print('Result: p=%.3f, r=%.3f, f=%.3f' % (p, r, f))


运行这个例子证实 50 的精确率和完美的召回率,并且 F 分数的结果约为 0.667。

Result: p=0.500, r=1.000, f=0.667


Fbeta-Measure


F-measure 平衡了准确率和召回率。

在某些问题上,我们可能对更加关注精度的 F 度量感兴趣,例如当假阳性更重要以最小化时,但假阴性仍然很重要。

在其他问题上,我们可能对更关注召回的 F 度量感兴趣,例如当假阴性更重要以最小化时,但假阳性仍然很重要。

解决方案是 Fbeta-Measure。

Fbeta 度量是 F 度量的抽象,其中调和均值计算中的精度和召回率的平衡由称为beta的系数控制。

  • Fbeta = ((1 + beta^2) * Precision * Recall) / (beta^2 * Precision + Recall)

beta 参数的选择将用于 Fbeta-measure 的名称。

例如,beta 值为 2 被称为 F2-measure 或 F2-score。Beta 值为 1 被称为 F1-measure 或 F1-score。

beta 参数的三个常见值如下:

  • F0.5-Measure (beta=0.5):在精度上的权重更大,召回的权重更小。
  • F1-Measure (beta=1.0):平衡准确率和召回率的权重。
  • F2-Measure (beta=2.0):精度权重较小,召回权重较大

起初,不同 beta 值对计算的影响并不直观。让我们仔细看看这些例子中的每一个。


F1-measure


上一节中讨论的 F-measure 是Beta值为 1的 Fbeta-measure 的示例。具体来说,F-measure和F1-measure计算的东西是一样的;例如:

F-Measure = ((1 + 1^2) * Precision * Recall) / (1^2 * Precision + Recall)
F-Measure = (2 * Precision * Recall) / (Precision + Recall)


考虑我们有 50 %精确率和100%召回率的情况。我们可以手动计算这种情况下的 F1 度量,如下所示:

F-Measure = (2 * Precision * Recall) / (Precision + Recall)
F-Measure = (2 * 0.5 * 1.0) / (0.5 + 1.0)
F-Measure = 1.0 / 1.5
F-Measure= 0.666


我们可以使用scikit-learn 中的fbeta_score() 函数将“ beta ”参数设置为 1.0来确认这个计算.下面列出了完整的示例。

# calculate the f1-measure
from sklearn.metrics import fbeta_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
# perfect precision, 50% recall
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
p = precision_score(y_true, y_pred)
r = recall_score(y_true, y_pred)
f = fbeta_score(y_true, y_pred, beta=1.0)
print('Result: p=%.3f, r=%.3f, f=%.3f' % (p, r, f))


这个 F1-measure 值 0.667 与上面中计算的 F-measure 相匹配。

Result: p=0.500, r=1.000, f=0.667


F0.5-Measure


F0.5-measure 是Beta值为 0.5的 Fbeta-measure 的一个示例。它具有提高精确率的重要性和降低召回率的重要性的效果。如果最大化精确率最小化假阳性且最大化召回率最小化假阴性,那么F0.5 度量更关注最小化假阳性而不是最小化假阴性。

F0.5-Measure 计算如下:

F0.5-Measure = ((1 + 0.5^2) * Precision * Recall) / (0.5^2 * Precision + Recall)
F0.5-Measure = (1.25 * Precision * Recall) / (0.25 * Precision + Recall)


考虑我们有 50% 的准确率和完美召回率的情况。我们可以手动计算这种情况下的 F0.5 度量,如下所示:

F0.5-Measure = (1.25 * Precision * Recall) / (0.25 * Precision + Recall)
F0.5-Measure = (1.25 * 0.5 * 1.0) / (0.25 * 0.5 + 1.0)
F0.5-Measure = 0.625 / 1.125
F0.5-Measure = 0.555


我们预计 0.5 的 beta 值会导致这种情况下的得分较低,因为精确率得分较低且召回率非常好。这正是我们所看到的,对于 F1 分数计算为 0.667 的相同场景,F0.5 度量达到了 0.555。精确率在计算中发挥了更大的作用。我们可以确认这个计算;下面列出了完整的示例。

# calculate the f0.5-measure
from sklearn.metrics import fbeta_score
from sklearn.metrics import f1_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
# perfect precision, 50% recall
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
p = precision_score(y_true, y_pred)
r = recall_score(y_true, y_pred)
f = fbeta_score(y_true, y_pred, beta=0.5)
print('Result: p=%.3f, r=%.3f, f=%.3f' % (p, r, f))


运行该示例确认精度和召回值,然后报告 F0.5 测量值为 0.556(四舍五入),与我们手动计算的值相同。

Result: p=0.500, r=1.000, f=0.556


F2-measure


F2-measure 是Beta值为 2.0的 Fbeta-measure 的一个示例。它具有降低精度重要性和增加召回重要性的效果。如果最大化精度最小化误报,最大化召回率最小化漏报,那么F2 度量更关注最小化漏报而不是最小化误报。

F2-measure 计算如下:

F2-Measure = ((1 + 2^2) * Precision * Recall) / (2^2 * Precision + Recall)
F2-Measure = (5 * Precision * Recall) / (4 * Precision + Recall)


考虑我们有 50% 的准确率和完美召回率的情况。我们可以手动计算这种情况下的 F2 度量,如下所示:

F2-Measure = (5 * Precision * Recall) / (4 * Precision + Recall)
F2-measure  = (5 * 0.5 * 1.0) / (4 * 0.5 + 1.0)
F2-measure  = 2.5 / 3.0
F2-measure  = 0.833


我们预计2.0的beta值会在这种情况下导致更高的分数,因为召回有一个完美的分数,这

将比精度表现不佳的分数更高。正是我们看到的,对于 F1 分数计算为 0.667 的相同场景,F2 度量达到 0.833。召回在计算中发挥了更大的作用。我们可以确认这个计算;下面列出了完整的示例。

# calculate the f2-measure
from sklearn.metrics import fbeta_score
from sklearn.metrics import f1_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
# perfect precision, 50% recall
y_true = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
p = precision_score(y_true, y_pred)
r = recall_score(y_true, y_pred)
f = fbeta_score(y_true, y_pred, beta=2.0)
print('Result: p=%.3f, r=%.3f, f=%.3f' % (p, r, f))


运行该示例确认精度和召回值,然后报告 F2-measure 为 0.883,与我们手动计算的值相同(四舍五入)。

Result: p=0.500, r=1.000, f=0.833


相关文章
|
7月前
|
机器学习/深度学习 数据采集 人工智能
机器学习基础知识——基本原理、常用算法与评估指标
机器学习基础知识——基本原理、常用算法与评估指标
129 0
|
7月前
|
机器学习/深度学习
评分是机器学习领域中的一种评估模型性能的指标
评分是机器学习领域中的一种评估模型性能的指标
51 1
|
11月前
|
机器学习/深度学习 算法 数据挖掘
机器学习系列 | 02:聚类算法指标整理
本文主要整理记录聚类算法指标,以供参考
|
11月前
|
机器学习/深度学习 算法 语音技术
机器学习评估指标
机器学习评估指标
|
12月前
|
机器学习/深度学习 测试技术
机器学习指标: F1分数
机器学习指标: F1分数
128 0
|
机器学习/深度学习 人工智能 自然语言处理
深度学习基础入门篇[二]:机器学习常用评估指标:AUC、mAP、IS、FID、Perplexity、BLEU、ROUGE等详解
A.深度学习基础入门篇[二]:机器学习常用评估指标:AUC、mAP、IS、FID、Perplexity、BLEU、ROUGE等详解
深度学习基础入门篇[二]:机器学习常用评估指标:AUC、mAP、IS、FID、Perplexity、BLEU、ROUGE等详解
|
机器学习/深度学习 数据采集 搜索推荐
机器学习评估指标的十个常见面试问题
评估指标是用于评估机器学习模型性能的定量指标。本文整理了10个常见的问题。
153 0
机器学习评估指标的十个常见面试问题
|
机器学习/深度学习
机器学习结果指标评估
ROC、混淆矩阵、PR曲线
194 0
机器学习结果指标评估
|
机器学习/深度学习 测试技术 Python
机器学习中分类任务的常用评估指标和python代码实现
机器学习中分类任务的常用评估指标和python代码实现
333 0
机器学习中分类任务的常用评估指标和python代码实现
|
机器学习/深度学习 Python
在机器学习回归问题中,你应该使用哪种评估指标?
在机器学习回归问题中,你应该使用哪种评估指标?
204 0
在机器学习回归问题中,你应该使用哪种评估指标?