ML之ME/LF:机器学习中回归预测模型评估指标之“调整确定系数R2”的简介、代码实现之详细攻略

简介: ML之ME/LF:机器学习中回归预测模型评估指标之“调整确定系数R2”的简介、代码实现之详细攻略


目录

回归预测模型中常用的评估指标“调整确定系数R2*”的简介

1、R²的缺点——调整确定系数Adjusted R2(R2*)的引入

2、R²和R2*的对比

3、调整确定系数R2的使用方法

回归预测模型中常用的评估指标“调整的R2”的代码实现


回归预测模型中常用的评估指标“调整确定系数R2*”的简介

1、R²的缺点——调整确定系数Adjusted R2(R2*)的引入

         R²表示回归平方和与总离差平方和的比值,这一比值越大,表示总离差平方和中可以由回归平方和解释的比例越大,模型越精确,回归效果越显著。R²∈[0~1],越接近1,回归拟合效果越好,一般认为超过0.8的模型拟合优度比较高。

         众所周知,R2,反应了回归方程对y的解释能力。但是,因为在多元线性回归方程中,自变量个数的增加,会引起余差平方和的减少,从而使R2增大;因此,尽管有的自变量与y线性关系不显著,将其引入方程后,也会使R2增大。也就是说,R2本身还受自变量个数的影响。所以,在它基础上,又派生出一个指标——调整确定系数R2*

         因此,为了剔除自变量个数对R2的影响,让R2的大小只反应回归方程的拟合优度,引入了调整的R2—R2*

         公式可看出,调整的R2随k的增加而减小。其中n是样本个数,在调查之后分析时,是固定的,可以识别自变量个数对R2的影响。

2、R²和R2*的对比

         R2和R2*有何种区别?不断添加变量,使模型变得复杂,R²会变大(模型的拟合优度提升,而这种提升是虚假的),而R2*则不一定变大,因为其随意添加变量不一定能让模型拟合度上升。

         R2很小的话,说明所选的变量解释能力不足,有可能有其他重要变量被纳入到误差项。可尝试寻找其他相关变量进行多元回归。

3、调整确定系数R2的使用方法

         经验上,一般当k:n>1:5时,R2会高估实际的拟合优度,这时,宜用R2*来说明方程的拟合优度,也就是自变量对y的解释能力。

 

       

回归预测模型中常用的评估指标“调整的R2”的代码实现

1. n = len(LiR_predict_real); p = 1
2. 
3. LiR_predict_real_Adj_r2_score = 1-( (1-LiR_predict_real_score)*(n-1) ) / (n-p-1)
4. Adj r2 = 1-(1-R2)*(n-1)/(n-p-1)

参考文章

https://www.cnblogs.com/ykit/p/12501816.html

回归分析中R方和调整R方的区别


相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】
机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】
|
1月前
|
机器学习/深度学习 算法 搜索推荐
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
|
18天前
|
机器学习/深度学习 人工智能 算法
算法金 | 一文彻底理解机器学习 ROC-AUC 指标
```markdown # ROC曲线与AUC详解:评估分类模型利器 本文深入浅出解释ROC曲线和AUC,通过实例和代码帮助理解其在模型评估中的重要性,旨在提升对分类模型性能的理解和应用。 ```
71 13
算法金 | 一文彻底理解机器学习 ROC-AUC 指标
|
1天前
|
机器学习/深度学习 人工智能 算法
超强,必会的机器学习评估指标
```markdown # 机器学习模型评估指标概览 机器学习模型评估涉及多种指标,用于量化模型在分类和回归任务中的表现。关键指标包括: - **分类**: - **准确率**: 简单易懂,但在类别不平衡时可能误导。 - **精确率**: 衡量正类预测的准确性,适用于误报代价高的场景。 - **召回率**: 评估正类识别的完整性,适用于漏报代价高的场景。 - **F1分数**: 精确率和召回率的调和平均,平衡两者。 - **AUC**: 衡量模型区分正负类的能力,适用于不平衡数据。 - **混淆矩阵**: 提供详细分类结果,用于分析模型错误。
4 0
超强,必会的机器学习评估指标
|
1月前
|
机器学习/深度学习 人工智能 测试技术
【机器学习】R-squared系数有什么缺点?如何解决?
【5月更文挑战第20天】【机器学习】R-squared系数有什么缺点?如何解决?
|
1月前
|
机器学习/深度学习 人工智能
【机器学习】有哪些指标,可以检查回归模型是否良好地拟合了数据?
【5月更文挑战第16天】【机器学习】有哪些指标,可以检查回归模型是否良好地拟合了数据?
|
1月前
|
机器学习/深度学习 BI
机器学习模型评估指标总结
机器学习模型评估指标总结
26 2
|
1月前
|
机器学习/深度学习 数据可视化 算法
【python】Python大豆特征数据分析 [机器学习版一](代码+论文)【独一无二】
【python】Python大豆特征数据分析 [机器学习版一](代码+论文)【独一无二】
|
1月前
|
机器学习/深度学习 数据可视化 前端开发
【Python机器学习专栏】机器学习模型评估的实用方法
【4月更文挑战第30天】本文介绍了机器学习模型评估的关键方法,包括评估指标(如准确率、精确率、召回率、F1分数、MSE、RMSE、MAE及ROC曲线)和交叉验证技术(如K折交叉验证、留一交叉验证、自助法)。混淆矩阵提供了一种可视化分类模型性能的方式,而Python的scikit-learn库则方便实现这些评估。选择适合的指标和验证方法能有效优化模型性能。
|
1月前
|
机器学习/深度学习 算法 Python
【Python机器学习专栏】Python中的机器学习评估与度量指标
【4月更文挑战第30天】本文介绍了Python中机器学习模型的评估方法和度量指标。主要包括留出法、交叉验证和自助法等评估方法,以及准确率、精确率、召回率、F1分数、AUC-ROC曲线、MSE、RMSE和R方值等度量指标。选择合适的评估标准对于理解模型性能和适应不同任务至关重要。