sklearn.metric.accuracy_score评价指标介绍和使用

简介: sklearn.metric.accuracy_score评价指标介绍和使用

1.示例


#!/usr/bin/python
# -*- coding: UTF-8 -*-
"""
@author:livingbody
@file:accuracy_score.py
@time:2022/08/29
"""
from sklearn.metrics import accuracy_score
if __name__ == '__main__':
    y_pred = [0, 2, 1, 3, 4]
    y_true = [0, 1, 2, 3, 4]
    acc = accuracy_score(y_true, y_pred)
    print(f"acc: {acc}")

acc: 0.6

如上所示,5个值得情况下,错2个,准确率60%,浅显易懂。


2.api介绍


sklearn.metrics.accuracy_score(y_true, y_pred, *, normalize=True, sample_weight=None)


  • 可用来计算分类准确率分数。
  • 可用来计算多分类准确率分数。
"""Accuracy classification score.
In multilabel classification, this function computes subset accuracy:
the set of labels predicted for a sample must *exactly* match the
corresponding set of labels in y_true.
Read more in the :ref:`User Guide <accuracy_score>`.
Parameters
----------
y_true : 1d array-like, or label indicator array / sparse matrix
    Ground truth (correct) labels.
y_pred : 1d array-like, or label indicator array / sparse matrix
    Predicted labels, as returned by a classifier.
normalize : bool, default=True
    If ``False``, return the number of correctly classified samples.
    Otherwise, return the fraction of correctly classified samples.
sample_weight : array-like of shape (n_samples,), default=None
    Sample weights.
Returns
-------
score : float
    If ``normalize == True``, return the fraction of correctly
    classified samples (float), else returns the number of correctly
    classified samples (int).
    The best performance is 1 with ``normalize == True`` and the number
    of samples with ``normalize == False``.


3.多分类准确率分数计算


import numpy as np
accuracy_score(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5


目录
相关文章
|
6月前
|
机器学习/深度学习 监控 数据可视化
训练损失图(Training Loss Plot)
训练损失图(Training Loss Plot)是一种在机器学习和深度学习过程中用来监控模型训练进度的可视化工具。损失函数是衡量模型预测结果与实际结果之间差距的指标,训练损失图展示了模型在训练过程中,损失值随着训练迭代次数的变化情况。通过观察损失值的变化,我们可以评估模型的拟合效果,调整超参数,以及确定合适的训练停止条件。
1047 5
|
4月前
np.array()按权重求平均值详解
np.array()按权重求平均值详解
|
4月前
|
机器学习/深度学习 存储 算法
查询模型的方法knn_model.pkl
【7月更文挑战第28天】
39 3
|
5月前
|
机器学习/深度学习
YOLOv8的多分类模型如何计算准确率(Accuracy)、精确率(Precision)、召回率(recall)和F1-Score模型评估参数
YOLOv8的多分类模型如何计算准确率(Accuracy)、精确率(Precision)、召回率(recall)和F1-Score模型评估参数
|
机器学习/深度学习 测试技术
机器学习系列 | 01:多类别分类任务(multi-class)中为何precision,recall和F1相等?
在 multi-class 分类任务中,如果使用 micro 类指标,那么 micro-precision, micro-recall和micro-F1值都是相等的。本文主要针对这个现象进行解释。
|
机器学习/深度学习 运维 搜索推荐
机器学习中准确率、精确率、召回率、误报率、漏报率、F1-Score、AP&mAP、AUC、MAE、MAPE、MSE、RMSE、R-Squared等指标的定义和说明
在机器学习和深度学习用于异常检测(Anomaly detection)、电子商务(E-commerce)、信息检索(Information retrieval, IR)等领域任务(Task)中,有很多的指标来判断机器学习和深度学习效果的好坏。这些指标有相互权衡的,有相互背向的,所以往往需要根据实际的任务和场景来选择衡量指标。本篇博文对这些指标进行一个梳理。
机器学习中准确率、精确率、召回率、误报率、漏报率、F1-Score、AP&mAP、AUC、MAE、MAPE、MSE、RMSE、R-Squared等指标的定义和说明
|
机器学习/深度学习 数据可视化
Lesson 5.2 混淆矩阵与 F1-Score
Lesson 5.2 混淆矩阵与 F1-Score
|
测试技术 计算机视觉
sklearn.model_selection.learning_curve介绍(评估多大的样本量用于训练才能达到最佳效果)
sklearn.model_selection.learning_curve介绍(评估多大的样本量用于训练才能达到最佳效果)
随机抽样方法——DataFrame.sample()
随机抽样方法——DataFrame.sample()
criterion = torch.nn.MSELoss() ;loss = criterion(y_pred.squeeze(), Y_train.squeeze()) 其中loss.item()的结果是指当前批次所有样本的mse总和还是平均值?
loss.item()的结果是当前批次所有样本的均方误差(MSE)值,而不是总和。这是因为torch.nn.MSELoss()默认返回的是每个样本的MSE值之和,并且在计算总体损失时通常会将其除以样本数量来得到平均损失。 在代码中,loss = criterion(y_pred.squeeze(), Y_train.squeeze())语句计算了y_pred和Y_train之间的MSE损失,然后通过调用item()方法获取了该批次训练样本的平均MSE损失。如果希望获取该批次训练样本的总MSE损失,可以使用loss.item() * batch_size来计算,其中batch_size是该批次
366 0