轻松玩转 Scikit-Learn 系列 —— 线性回归及 ML 相关评价标准

本文涉及的产品
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 线性回归可能是机器学习中最简单、最基础的算法了。但一定不要因为它简单就轻视它的存在,因为它也是很多更高级机器学习算法的基础,比如多项式回归、岭回归、 LASSO 回归等。线性回归的核心归结为求解正规方程(由样本特征x所得预测值y'和实际值y差的平方和,对x求偏导并使其为0所得的方程组),也就是利用最小二乘法求解方程系数。当x为一个n维向量时,方程的物理意义也被扩展为求解一个n维超平面前的系数。在介绍线性回归之前,让我们先了解下衡量线性回归预测结果好坏的指标。

线性回归可能是机器学习中最简单、最基础的算法了。但一定不要因为它简单就轻视它的存在,因为它也是很多更高级机器学习算法的基础,比如多项式回归、岭回归、 LASSO 回归等。线性回归的核心归结为求解正规方程(由样本特征x所得预测值y'和实际值y差的平方和,对x求偏导并使其为0所得的方程组),也就是利用最小二乘法求解方程系数。当x为一个n维向量时,方程的物理意义也被扩展为求解一个n维超平面前的系数。在介绍线性回归之前,让我们先了解下衡量线性回归预测结果好坏的指标。

1、相关评价标准

1)均方误差 MSE (Mean Squared Error) :

48.jpg

2)均方根误差 RMSE (Root Mean Squared Error) :

49.jpg

3)平均绝对误差 MAE (Mean Absolute Error) :

50.jpg

4)R方误差 ( R Squared ) :

51.jpg

应根据不同的应用场景和需求来选择不同的评价指标,没有其中一个平白无故的比另一个更好。具体来说,RMSE就是MSE的平方根,但它的量纲与要预测的y值的量纲相同,更有意义,MAE 因为带有绝对值而不方便求导,而 R Squared 因为无量化而更具有通用的比较性。我们可以通过向量化计算在 Python 中很容易的实现这4中指标的计算。同时,你也可以直接在 scikit-learn 中的 metrics 中直接调用 mean_squared_error,mean_absolute_error,r2_score 方法直接计算得到 MSE、MAE、R Squared。

2、线性回归

1)小引—— kNN 回归

首先我们先回顾下上次的 kNN ,其实 kNN 不仅可以用于分类,还可以用来解决回归问题。以此来引入回归问题的鼻祖——线性回归。


Talk is cheap, let's see the code!

52.jpg


结果如下:

MAE: 3.651057, MSE: 25.966010, R2 Accuracy: 0.464484

0.602674505081

准确率并不是太高呢!比我抛硬币好不了多少,是不是因为我们使用的是 kNN 回归默认的模型,而没有调整任何超参数的原因的。那我们接下来先介绍下 kNN 回归的各个超参数,再用网格搜索的方式搜索 kNN 回归的最佳超参数。

  • n_neighbors——即 k 值,默认n_neighbors=5;weights:表示是否为距离加权重,默认 weights=’uniform’;
  • algorithm——用于计算距离的算法,默认algorithm=’auto’,即根据 fit 方法传入值选择合适算法;
  • p——明可夫斯基距离的指数,默认p=2(欧氏距离),p=1 为曼哈顿距离;
  • n_jobs——调用CPU的核心数,默认 n_jobs=None;


上次我们学习kNN分类器的时候,用到了2层 for 循环搜索最佳超参数,这次我们直接调用 scikit-learn 中的方法搜索 kNN 回归的最佳超参数。实现如下:

53.jpg


结果如下:

{'n_neighbors': 6, 'p': 1, 'weights': 'distance'}

0.735424490609


好像准确度还不是很高呢!?是不是 kNN 这个算法太简单,已经落伍了呢?


其实,我们在选择一种机器学习方法的时候是受领域限制的,不同的领域,不同种类的数据可能就适合不同的机器学习方法,没有一种机器学习方法面对各种问题而无往不利,总是得到最佳结果(暂且不谈深度学习),而且模型准确率的高低还受到数据质量的影响。那么我接下来看看线性回归在波斯顿房价数据集上表现怎样。


2)Linear Regression

54.jpg


结果为 0.800891619952 。

80% 好像还不错,毕竟是默认模型嘛。让我们看下线性回归都有哪些超参数呢!

  • fit_intercept——默认 fit_intercept=True,决定是否计算模型截距;
  • normalize——默认 normalize=False,如果fit_intercept=True,X 会在被减去均值并除以 L2 正则项之前正则化;
  • n_jobs——计算时所使用的CPU核心数;

55.jpg

结果为:

array([ -1.14235739e-01,   3.12783163e-02,  -4.30926281e-02,

      -9.16425531e-02,  -1.09940036e+01,   3.49155727e+00,

      -1.40778005e-02,  -1.06270960e+00,   2.45307516e-01,

      -1.23179738e-02,  -8.80618320e-01,   8.43243544e-03,

      -3.99667727e-01])

线性回归的特征系数是具有实际意义的,系数为负说明 y 值与该特征负相关,系数为正说明该特征与 y 值正相关,且值越大,相关度越高。我们拿波斯顿房价数据集举例说明,通过查找官方文档,我们得到这13个特征(按顺序排列)的实际意义:

Attribute Information (in order)


  • CRIM——per capita crime rate by town
  • ZN——proportion of residential land zoned for lots over 25,000 sq.ft.
  • INDUS——proportion of non-retail business acres per town
  • CHAS——Charles River dummy variable (= 1 if tract bounds river; 0 otherwise)
  • NOX——nitric oxides concentration (parts per 10 million)
  • RM——average number of rooms per dwelling
  • AGE——proportion of owner-occupied units built prior to 1940
  • DIS——weighted distances to five Boston employment centres
  • RAD——index of accessibility to radial highways
  • TAX——full-value property-tax rate per $10,000
  • PTRATIO——pupil-teacher ratio by town
  • B——1000(Bk - 0.63)^2 where Bk is the proportion of blacks by town
  • LSTAT——% lower status of the population
  • MEDV——Median value of owner-occupied homes in $1000's


为方便对应,我们将这13个特征的名字按其系数大小排下序:

56.jpg


结果为


array(['NOX', 'DIS', 'PTRATIO', 'LSTAT', 'CRIM', 'CHAS', 'INDUS', 'AGE',

     'TAX', 'B', 'ZN', 'RAD', 'RM'],


由此可知特征 'NOX' 与房价的负相关度最高,查看官方文档说明可知,其代表———房子附近的氮氧化物的浓度,我们根据常识就知道,氮氧化物有毒,房子附近氮氧化物浓度高的,价钱肯定便宜。特征 'RM' 代表房子的平均房间数,同样的,根据我们的生活经验,房间数越多的房子一般也越贵,大家想想是不是。


今天的分享就到这里了,关于 Linear Regression 还有很多超参数的调整,请小伙伴们自己在下面亲手操作下,会收获更多哦。还是那句话,如果你们中有大神路过,还请高抬贵脚,勿踩勿喷,嘻嘻。期待与小伙伴们共同进步!


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
10天前
|
机器学习/深度学习 算法 数据挖掘
|
12天前
|
机器学习/深度学习 PHP 开发者
探索PHP中的面向对象编程构建你的首个机器学习模型:以Python和scikit-learn为例
【8月更文挑战第30天】在PHP的世界中,面向对象编程(OOP)是一块基石,它让代码更加模块化、易于管理和维护。本文将深入探讨PHP中面向对象的魔法,从类和对象的定义开始,到继承、多态性、封装等核心概念,再到实战中如何应用这些理念来构建更健壮的应用。我们将通过示例代码,一起见证PHP中OOP的魔力,并理解其背后的设计哲学。
|
13天前
|
机器学习/深度学习 数据采集 Python
利用Python实现简单的线性回归模型
【8月更文挑战第29天】本文将引导你了解并实践如何使用Python编程语言实现一个简单的线性回归模型。我们将通过一个实际的数据集,一步步地展示如何进行数据预处理、建立模型、训练及评估模型性能。文章旨在为初学者提供一个易于理解且实用的编程指南,帮助他们快速入门机器学习领域。
|
28天前
|
机器学习/深度学习 人工智能 算法
如何使用Scikit-learn在Python中构建一个机器学习分类器
如何使用Scikit-learn在Python中构建一个机器学习分类器
17 3
|
11天前
|
机器学习/深度学习 算法 Python
Python中实现简单的线性回归模型
【8月更文挑战第31天】本文将通过Python编程语言,介绍如何实现一个简单的线性回归模型。我们将从理论出发,逐步深入到代码实现,最后通过实例验证模型的有效性。无论你是初学者还是有一定编程基础的读者,都能从中获得启发和收获。让我们一起探索线性回归的世界吧!
|
1月前
|
数据采集 人工智能 数据可视化
【2023年电工杯竞赛】B题 人工智能对大学生学习影响的评价 数学建模方案和python代码
本文介绍了2023年电工杯竞赛B题的数学建模方案和Python代码实现,详细阐述了如何分析调查问卷数据,建立评价指标体系,构建数学模型评估人工智能对大学生学习的影响,并提供了数据预处理、特征编码、可视化分析等代码示例。
33 0
【2023年电工杯竞赛】B题 人工智能对大学生学习影响的评价 数学建模方案和python代码
|
14天前
|
机器学习/深度学习 运维 数据挖掘
scikit-learn 1.0 版本重要新特性一览
scikit-learn 1.0 版本重要新特性一览
|
15天前
|
机器学习/深度学习 数据挖掘 Python
简单几步,教你使用scikit-learn做分类和回归预测
简单几步,教你使用scikit-learn做分类和回归预测
|
18天前
|
机器学习/深度学习 人工智能 算法
探索机器学习:Python中的线性回归模型实现
【8月更文挑战第24天】在机器学习的世界中,线性回归是最基础也是应用最广泛的算法之一。本文将通过Python编程语言,使用scikit-learn库来实现一个简单的线性回归模型。我们将从理论出发,逐步深入到代码实现,最后通过一个实际数据集来验证模型的效果。无论你是机器学习的初学者,还是想要复习线性回归的基础知识,这篇文章都将为你提供有价值的信息。让我们一起踏上这段探索之旅吧!
|
30天前
|
机器学习/深度学习 算法 数据挖掘
机器学习新手也能飞:Python+Scikit-learn让你轻松入门!
在数据驱动的时代,机器学习是推动科技进步和智能化生活的关键。Python以简洁的语法和强大的库支持,成为机器学习的理想语言。Scikit-learn作为Python的开源机器学习库,提供简单易用的API和丰富的算法,降低了学习门槛。通过Python结合Scikit-learn,即使是初学者也能快速上手,如使用鸢尾花数据集进行分类任务,体验从数据预处理到模型训练和评估的全过程,进而探索更多机器学习的可能性。
34 0