一、线性回归的两种实现方式:(二)sklearn实现

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: 一、线性回归的两种实现方式:(二)sklearn实现

线性回归的sklearn实现

导入必要的模块

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error

数据集

x = np.array([50, 30, 15, 40, 55, 20, 45, 10, 60, 25])
y = np.array([5.9, 4.6, 2.7, 4.8, 6.5, 3.6, 5.1, 2.0, 6.3, 3.8])

画出数据集的散点图

plt.scatter(x, y)
plt.grid(True)
plt.xlabel('area')
plt.ylabel('price')
plt.show()

在这里插入图片描述

数据划分

划分训练集和测试集

使用到的api:

数据划分sklearn.model_selection.train_test_split

用到的参数:

  • *arrays:输入数据集。
  • test_size:划分出来的测试集占总数据量的比例,取值0~1。
  • shuffle:是否在划分前打乱数据的顺序,默认True。
  • random_state:shuffle的随机种子,取值正整数。

返回:

  • splitting:列表包含划分后的训练集与测试集。
x_train, x_test, y_train, y_test = train_test_split(
    x, y, test_size=0.3, shuffle=True, random_state=23)

查看训练集的散点图

plt.scatter(x_train,y_train)
plt.grid('True')
plt.xlabel('area')
plt.ylabel('price')
plt.show()

在这里插入图片描述

查看测试集的散点图

plt.scatter(x_test,y_test)
plt.grid('True')
plt.xlabel('area')
plt.ylabel('price')
plt.show()

在这里插入图片描述

模型搭建

使用到的api:

线性回归sklearn.linear_model.LinearRegression

model = LinearRegression()

模型训练

使用到的api:

线性回归模型训练sklearn.linear_model.LinearRegression.fit

用到的参数:

  • X:输入特征,如果输入是np.array格式,shape必须是(n_sample, n_feature)。
  • y:输入标签。
# x_train的shape由(7,)变为(7,1)
x_train = x_train.reshape(-1,1)
model.fit(X=x_train, y=y_train)
LinearRegression()

模型预测

对测试集做预测

使用到的api:

线性回归模型预测sklearn.linear_model.LinearRegression.predict

用到的参数:

  • X:输入特征,如果输入是np.array格式,shape必须是(n_sample, n_feature)。

返回:

  • C:预测结果。
# x_test的shape由(7,)变为(7, 1)
x_test = x_test.reshape(-1,1)

y_test_pred = model.predict(x_test)

画出数据集的散点图和预测直线

x_test = x_test.reshape(-1)

plt.scatter(x_test, y_test, color='g', label='test dataset')
plt.scatter(x_train, y_train, color='b',label='train dataset')
plt.plot(np.sort(x_test), y_test_pred[np.argsort(x_test)], color='r', label='linear regression')
plt.legend()
plt.show()

在这里插入图片描述

计算评价指标mse

使用到的api:

均方误差sklearn.metrics.mean_squared_error

用到的参数:

  • y_true:真实值(ground truth)。
  • y_pred:预测值。

返回:

  • loss:mse计算结果。
mse = mean_squared_error(y_true=y_test, y_pred=y_test_pred)
print('MSE: {}'.format(mse))
MSE: 0.15383086014546365

查看线性回归模型的系数w和截距b

使用到的api:

回归系数sklearn.linear_model.LinearRegression.coef_

截距项sklearn.linear_model.LinearRegression.intercept_

w, b = model.coef_[0], model.intercept_
print('Weight={0} bias={1}'.format(w, b))
Weight=0.09139423076923077 bias=1.3420673076923069
相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
7月前
|
机器学习/深度学习 存储 算法
sklearn应用线性回归算法
sklearn应用线性回归算法
94 0
|
7月前
|
机器学习/深度学习 算法 数据挖掘
sklearn-决策树
sklearn-决策树
78 0
|
7月前
Sklearn库中的决策树模型有哪些主要参数?
Sklearn的决策树模型参数包括:criterion(默认"gini")用于特征选择,splitter(默认"best")决定划分点,max_depth限制树的最大深度,min_samples_split设置内部节点划分的最小样本数,min_samples_leaf定义叶子节点最少样本数,max_features(默认"auto")控制搜索最优划分时的特征数量,random_state设定随机数种子,max_leaf_nodes限制最大叶子节点数,以及min_impurity_decrease阻止不纯度减少不足的节点划分。
95 0
|
7月前
|
算法
sklearn算法
sklearn算法
53 0
|
机器学习/深度学习 算法 计算机视觉
使用sklearn进行特征选择
背景 一个典型的机器学习任务,是通过样本的特征来预测样本所对应的值。如果样本的特征少,我们会考虑增加特征。而现实中的情况往往是特征太多了,需要减少一些特征。
|
6月前
|
机器学习/深度学习 数据可视化
Sklearn中逻辑回归建模
分类模型评估通常涉及准确率、召回率和F1值。准确率是正确分类样本的比例,但在类别不平衡时可能误导,例如一个模型总是预测多数类,即使误分类少数类也能有高准确率。召回率关注的是真正类被正确识别的比例,而精确率则衡量预测为正类的样本中真正为正类的比例。F1值是精确率和召回率的调和平均数,提供了两者之间的平衡。在sklearn中,可以使用`recall_score`, `precision_score` 和 `f1_score` 函数来计算这些指标。在类别重要性不同时,需根据业务需求选择合适的评估标准。
|
7月前
|
数据可视化 Python
如何使用Sklearn库实现线性回归
使用Sklearn实现线性回归的步骤:导入numpy, matplotlib, LinearRegression, train_test_split和metrics模块;准备数据集;划分训练集和测试集;创建线性回归模型;训练模型并预测;计算MSE和R²评估性能;可视化预测结果。示例代码展示了这些步骤,包括数据生成、模型训练及结果展示。
88 6
|
7月前
|
数据可视化
如何使用Sklearn库实现线性回归?
使用Sklearn实现线性回归的步骤包括导入库、准备数据、划分训练测试集、创建模型、训练预测、评估性能和可视化。
64 0
|
机器学习/深度学习 API 算法框架/工具
一、线性回归的两种实现方式:(一)keras实现
一、线性回归的两种实现方式:(一)keras实现
|
机器学习/深度学习 数据可视化
随机森林和KNN分类结果可视化(Sklearn)
随机森林和KNN分类结果可视化(Sklearn)
260 0

热门文章

最新文章