在机器学习回归问题中,你应该使用哪种评估指标?

简介: 在机器学习回归问题中,你应该使用哪种评估指标?

R², RMSE,  MAE

如果你像我一样,你可能会在你的回归问题中使用R平方(R平方)、均方根误差(RMSE)和均方根误差(MAE)评估指标,而不用考虑太多。🤔

尽管它们都是通用的度量标准,但在什么时候使用哪一个并不明显。

R方(R²)

R²代表模型所解释的方差所占的比例。

R²是一个相对度量,所以您可以使用它来与在相同数据上训练的其他模型进行比较。你可以用它来大致了解一个模型的性能。

我们看看R轴是怎么计算的。向前!➡️

这是一种表示R的方法。

1 - (SSE/SST)

SSE是误差的平方和;实际值与预测值之差的平方和。

SST为总平方和(有时用TSS表示);实际值与实际均值之差的平方之和实际值与实际均值之差的平方之和。

用更数学的符号:

1 - (∑(y - ŷ)² / ∑(y - y̅)²)

下面是代码的样子——改编自scikit-learn,主要的Python机器学习库。

numerator= ((y_true-y_pred) **2).sum()
denominator= ((y_true-np.average(y_true)) **2).sum()r2_score=1- (numerator/denominator)

用文字描述:

分子:

用实际的y值减去预测值求平方再求和

分母

用每个y值减去实际y值的均值求平方再求和

1 -分子/分母就是R方

R² 是scikit-learn回归问题的默认度量。如果你想显式地使用它,你可以导入它,然后像这样使用:

fromsklearn.metricsimportr2_scorer2_score(y_true, y_pred)

R²分数越高越好。

然而,如果你的R²对你的测试集是1,你可能是泄漏信息或要简单的问题对于模型太简单了。👍

在一些领域,如社会科学,有许多因素影响人类的行为。假设你有一个只有几个自变量的模型结果R接近0.5。您的模型能够解释数据中一半的方差,这是非常好的。😀

R²有可能是负的。当模型拟合数据的预测低于输出值的平均值时,就会出现负分数。每次预测平均值都是一个空模型。

假设您有以下小测试数据集:

640.png

这是实际和预测的y值。

640.png

模型的R值是0。71。模型占数据方差的71%。虽然我们希望得到更多的测试数据,但这还不算太寒酸。

另一个例子,假设y的真实值是[55,2,3]均值是20。预测每个y值为20,结果R方差为0。

对上述真值进行预测[1,2,2]的模型得出的R值为-0.59。最重要的是,您可以做得比null模型糟糕得多!事实上,你可以预测更坏的情况,结果是一个无穷小的R方。

简而言之,让我们看看调整后的R²和机器学习与统计数据。调整后的R²说明增加了更多的预测变量(特征)。

当一个新的预测变量对模型性能的改善超过预期时,调整后的R²只会随着该变量的增加而增加。调整后的R²有助于您集中精力使用最节省的模型。😉

调整后的R²在统计推断中比在机器学习中更常见。scikitlearn是用于机器学习的主要Python库,甚至没有调整过的R²度量。Statsmodels是Python的主要统计库。如果您想进一步了解何时使用哪个Python库进行数据科学,我在这里编写了一个指南。

如果知道特征列的数量(p)和观察值的数量(n),就可以计算调整后的R2。代码如下:

adjusted_r2=1 ((1r2) * (n1)) / ( np1)

n-1是自由度。每当你听到这个词,你就知道你在统计学领域。在机器学习中,我们通常最关心的是预测能力,因此R²比调整后的R²更受青睐。

关于统计学与机器学习的另一个注意事项:我们的重点是机器学习,所以预测而不是因果关系。R²-以及我们将要看到的其他指标,不要单独谈论因果关系。

R²告诉您模型所占的方差。它很方便,因为任何回归问题的R²将立即提供一些(有限的)对模型性能的理解。😀

R²是一个相对度量。现在让我们看看一些绝对的指标。

均方根误差(RMSE)

RMSE是一种非常常见的评价指标。它的范围可以是0到无穷大。值越低越好。要保持这一点,请记住名称中有错误,并且您希望错误率较低。☝️

RMSE的公式如下:SSE平方根我们在R²得分指标中看到了SSE。它是误差平方和;实际值和预测值的平方差之和。更多数学公式:(1/n*(∑(y-ŷ)²)的平方根Python代码:

np.sqrt(np.mean((y_true-y_pred) **2))

从实际y值中减去预测值,将结果平方求和,取平均值,取平方根以下是如何使用scikit learn中的函数获取RMSE:

fromsklearn.model_selectionimportmean_squared_errormean_squared_error(y_true, y_pred, squared=False)

从scikit learn版本0.22.0开始,可以使用squared=False参数。在此之前,你必须自己这样取平方根:np.sqrt(mean_squared_error(y_actual, y_predicted)

如果您想:

  1. 惩罚大错误
  2. 结果是否与结果变量的单位相同
  3. 使用可快速计算的损失函数进行验证

你可以使用无根的均方误差(MSE),但是单位就不那么容易理解了。取MSE的平方根,得到RMSE。

RMSE不一定随误差的方差而增加。RMSE随误差大小频率分布的变化而增大

此外,RMSE也不容易解释。这些单位可能看起来很眼熟,你不能简单地说RMSE为10意味着你平均减少了10个单位,尽管这是大多数人对结果的看法。至少,我以前是这样的。

再看看我们的示例数据集:

640.png

RMSE为0.48。实际y值的平均值为2.2。总之,这些信息告诉我们,这个模型可能介于伟大和可怕之间。如果没有更多的上下文,很难用这个RMSE统计数据做太多。

RMSE是一种不完善的评价统计量,但它很常见。如果你很在意惩罚大错误,这不是一个坏的选择。当超参数整定或批量训练深层神经网络时,它是一个很好的选择。


平均绝对误差(Mean Absolute Error)

平均绝对误差(MAE)是误差绝对值的平均值。

(1 / n) * (∑ |y - ŷ|)

代码

np.average(np.abs(y_true-y_pred))

用文字表述从实际y值中减去预测值,取每个误差的绝对值,求和,取平均值

以下是如何使用scikitlearn函数获取MAE:

fromsklearn.model_selectionimportmean_absolute_errormean_absolute_error(y_actual, y_predicted, squared=False)

从概念上讲,MAE是回归问题最简单的评估指标。它回答了这样一个问题:“你的预测平均相差多远?”

这些单位很直观。对!🎉

例如,假设您正在预测房屋销售价格,测试集中的平均实际销售价格为500000美元。MAE为10000美元意味着该模型的预测值平均下降了1万美元。不错啊!

与RMSE评分不同,糟糕的预测不会导致过高的MAE分数,或者总是比RMSE更接近0。

注意,MAE的计算速度不如RMSE快,因为它是一个带有训练循环的模型的优化指标。

最后一次看我们的示例数据集:

640.png

MAE是0.37。这些预测与平均值2.2的偏差平均为0.37。我很快就能理解这种说法。

顺便说下:RMSE为0.48,R²为0.71。

MAE是最简单、最容易解释的评价指标。如果你不想让一些遥远的预测压倒很多接近的预测,那么这是一个很好的度量标准。如果你想惩罚那些偏离目标很远的预测,这是一个不太好的选择。

总结

那么您应该使用哪种度量标准呢?总的来说,有以下三点!🚀

R²使评估性能的人员可以对模型的性能有一个直观的了解。

RMSE不太容易理解,但非常常见。它惩罚了非常糟糕的预测。由于计算速度快,这也为模型优化提供了一个很大的损失度量。

从这篇文章中对MAE有了新的想法。它很容易理解并按比例处理所有预测误差。我会在大多数回归问题评估中强调它。


目录
相关文章
|
1月前
|
机器学习/深度学习 数据挖掘 Serverless
手把手教你全面评估机器学习模型性能:从选择正确评价指标到使用Python与Scikit-learn进行实战演练的详细指南
【10月更文挑战第10天】评估机器学习模型性能是开发流程的关键,涉及准确性、可解释性、运行速度等多方面考量。不同任务(如分类、回归)采用不同评价指标,如准确率、F1分数、MSE等。示例代码展示了使用Scikit-learn库评估逻辑回归模型的过程,包括数据准备、模型训练、性能评估及交叉验证。
58 1
|
1月前
|
机器学习/深度学习 算法 API
机器学习入门(六):分类模型评估方法
机器学习入门(六):分类模型评估方法
|
2月前
|
机器学习/深度学习 算法 数据挖掘
Python数据分析革命:Scikit-learn库,让机器学习模型训练与评估变得简单高效!
在数据驱动时代,Python 以强大的生态系统成为数据科学的首选语言,而 Scikit-learn 则因简洁的 API 和广泛的支持脱颖而出。本文将指导你使用 Scikit-learn 进行机器学习模型的训练与评估。首先通过 `pip install scikit-learn` 安装库,然后利用内置数据集进行数据准备,选择合适的模型(如逻辑回归),并通过交叉验证评估其性能。最终,使用模型对新数据进行预测,简化整个流程。无论你是新手还是专家,Scikit-learn 都能助你一臂之力。
132 8
|
2月前
|
机器学习/深度学习 数据采集 算法
利用未标记数据的半监督学习在模型训练中的效果评估
本文将介绍三种适用于不同类型数据和任务的半监督学习方法。我们还将在一个实际数据集上评估这些方法的性能,并与仅使用标记数据的基准进行比较。
205 8
|
2月前
|
机器学习/深度学习 算法 数据挖掘
从菜鸟到大师:Scikit-learn库实战教程,模型训练、评估、选择一网打尽!
【9月更文挑战第13天】在数据科学与机器学习领域,Scikit-learn是不可或缺的工具。本文通过问答形式,指导初学者从零开始使用Scikit-learn进行模型训练、评估与选择。首先介绍了如何安装库、预处理数据并训练模型;接着展示了如何利用多种评估指标确保模型性能;最后通过GridSearchCV演示了系统化的参数调优方法。通过这些实战技巧,帮助读者逐步成长为熟练的数据科学家。
104 3
|
3月前
|
机器学习/深度学习 数据挖掘
机器学习模型的选择与评估:技术深度解析
【8月更文挑战第21天】机器学习模型的选择与评估是一个复杂而重要的过程。通过深入理解问题、选择合适的评估指标和交叉验证方法,我们可以更准确地评估模型的性能,并选择出最适合当前问题的模型。然而,机器学习领域的发展日新月异,新的模型和评估方法不断涌现。因此,我们需要保持对新技术的学习和关注,不断优化和改进我们的模型选择与评估策略。
|
4月前
|
机器学习/深度学习 算法 数据挖掘
从菜鸟到大师:Scikit-learn库实战教程,模型训练、评估、选择一网打尽!
【7月更文挑战第26天】在数据科学领域, Scikit-learn是初学者通往专家之路的必备工具。
67 5
|
4月前
|
机器学习/深度学习 算法 数据挖掘
从零到精通:Scikit-learn在手,数据分析与机器学习模型评估不再难!
【7月更文挑战第25天】在数据科学中,模型评估是理解模型泛化能力的关键。对新手来说,众多评估指标可能令人困惑,但Scikit-learn简化了这一过程。
57 2
|
3月前
|
机器学习/深度学习 人工智能 运维
机器学习中的模型评估与选择
【8月更文挑战第15天】在机器学习领域,一个关键的挑战是如何从众多模型中选择出最佳者。本文将探讨模型评估的重要性和复杂性,介绍几种主流的模型评估指标,并讨论如何在实际应用中进行有效的模型选择。通过分析不同的评估策略和它们在实际问题中的应用,我们将揭示如何结合业务需求和技术指标来做出明智的决策。文章旨在为读者提供一个清晰的框架,以理解和实施机器学习项目中的模型评估和选择过程。
|
4月前
|
机器学习/深度学习 算法 数据挖掘
Python数据分析革命:Scikit-learn库,让机器学习模型训练与评估变得简单高效!
【7月更文挑战第27天】在数据驱动时代,Python以丰富的库成为数据科学首选。Scikit-learn因简洁高效而备受青睐,引领数据分析革命。本文引导您使用Scikit-learn简化机器学习流程。首先通过`pip install scikit-learn`安装库。接着使用内置数据集简化数据准备步骤,例如加载Iris数据集。选择合适的模型,如逻辑回归,并初始化与训练模型。利用交叉验证评估模型性能,获取准确率等指标。最后,应用训练好的模型进行新数据预测。Scikit-learn为各阶段提供一站式支持,助力数据分析项目成功。
72 0