学习笔记: 机器学习经典算法-多项式回归

简介: 机器学习经典算法-个人笔记和学习心得分享

多元线性回归分析 基于数据间存在线性关系的前提假设进行数据的建模和回归分析,但在实际应用场景中很少有能够满足具有强线性关系特点的数据集,更多地是表现出 非线性关系 的数据。多项式回归 方法基于线性回归的处理逻辑提出,主要应用于非线性关系数据的 回归预测任务。

1、算法基本过程

在线性回归中模型中,类如平面直线模型 $f(x) = ax + b$,其中就有 $x$ 为样本特征,$a,b$ 为模型参数。而对于一组满足非线性关系的数据,类如样本输出标记与样本特征满足二次曲线,使用线性回归生成的拟合模型就不如二次曲线的拟合效果好。同样是一个特征的样本,那么这个样本特征 $x$ 与样本输出标记 $y$ 的曲线关系可描述为 :

$y = ax^2 + bx +c$

1.2 多项式与线性关系式的转换

从样本的 一个特征 角度来理解,二次方程 $y = ax^2_{1} + bx_{1} +c $ 描述了样本的特征 $x_{1}$ 与样本输出标记 $y$ 之间的非线性关系。但如果将方程中的 $x^2_{1}$ 视作样本的另一个特征来看( 升维处理 ),为了方便识别换元成 $x_{2} = x_1$,一元二次方程此时变成了多元线性方程 $y = ax_2 + bx_{1} + c$ ,最后应用线性回归的方法求解多项式的参数,即 多项式回归 的基本过程。 多项式回归 的关键在于为原始数据样本添加新特征(升维),这些新特征来自原始特征的多项式组合,来转换成线性关系式,从而求解多项式参数。

### Prepare datasets
import numpy as np
x = np.random.uniform(-3,3,size = 100).reshape((-1,1))
y = .5 * x ** 2 + 1*x + 2 + np.random.normal(size =(100,1))

### 通过添加特征 x^2 的方式 转换多项式为 多元线性关系式并基于线性回归的方法进行参数求解
X = np.hstack([x**2,x])
from sklearn.linear_model import LinearRegression
lin_reg = LinearRegression()
lin_reg.fit(X,y)
lin_reg.coef_

2、scikit-learn 框架下的多项式回归处理流程

  • Step.1 基于原始特征构造新特征
### Raw datasets
import numpy as np
x = np.random.uniform(-3,3,size = 100).reshape((-1,1))
y = .5 * x ** 2 + 1*x + 2 + np.random.normal(size =(100,1))
### PolynomialFeatures 特征构造
from sklearn.preprocessing import PolynomialFeatures 
poly = PolynomialFeatures(degree=2) ### 构造最高二次幂的新特征
poly.fit(x)
X = poly.transform(x) ### 返回添加了构造特征的特征矩阵,分别是 (x^0,x^1,X^2构造特征列

原始特征数目与构造特征的数目关系
(1) 原始样本仅包含一个特征$x_1$,构造最高2次幂的特征将返回$(x_1^{0},x_1^{1},x_1^{2})$的结果。
(2) 原始样本包含两个以上的特征,如包含两个特征$x_1,x_2$,则构造最高2次幂的特征将返回$(1,x_1^{1},x_2^{1},x_1^{2}, x_1x_2 ,x_2^{2})$ 6 个特征构造结果。

import numpy as np
x = np.arange(1,11).reshape(5,2) ### Raw Features

from sklearn.preprocessing import PolynomialFeatures ### 特征构造
poly = PolynomialFeatures(degree=2) ### 构造二次幂样本特征
poly.fit(x)
poly.transform(x)   ### PolynomialFeatures


(3) 基于 2个初始特征构造最高 3 次幂的新特征, 将产生十种组合特征:
$$1,x_1,x_2$$
$$x_1^{2},x_2^{2},x_1x_2$$
$$x_1^{3},x_2^{3},x_1^{2}x_2,x_1x_2^{2}$$
在构造特征的时候,阶数越高,模型的参数发生指数级增长,意味模型复杂度越高

  • Step.2 基于添加了构造特征的数据进行线性回归
    from sklearn.linear_model import LinearRegression
    lin_reg = LinearRegression()
    lin_reg.fit(X,y)
    lin_reg.coef_
    

2.2 使用scikit-learn 的Pipline 流程处理多步骤的分析任务

### Prepare datasets
import numpy as np
x = np.random.uniform(-3,3,size = 100).reshape((-1,1))
y = .5 * x ** 2 + 1*x + 2 + np.random.normal(size =(100,1))

### make pipline
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
poly_reg = Pipeline([
    ("poly",PolynomialFeatures(degree=2)), ### 格式为 管道名,当前管道需执行的函数
    ("std_scaler",StandardScaler()),
    ("lin_reg",LinearRegression())
])

### use pipline to predict
poly_reg.fit(x,y)
poly_reg.predict(x)
目录
相关文章
|
6天前
|
机器学习/深度学习 数据采集 自然语言处理
理解并应用机器学习算法:神经网络深度解析
【5月更文挑战第15天】本文深入解析了神经网络的基本原理和关键组成,包括神经元、层、权重、偏置及损失函数。介绍了神经网络在图像识别、NLP等领域的应用,并涵盖了从数据预处理、选择网络结构到训练与评估的实践流程。理解并掌握这些知识,有助于更好地运用神经网络解决实际问题。随着技术发展,神经网络未来潜力无限。
|
1天前
|
人工智能 编解码 算法
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
在本教程中,您将学习在阿里云交互式建模平台PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理,实现文本驱动的图像编辑功能单卡即可完成AIGC图片风格变化、背景变化和主体变化等功能。让我们一同开启这场旅程,为您的图像编辑添上无限可能性的翅膀吧。
|
3天前
|
机器学习/深度学习 算法 数据处理
探索机器学习中的决策树算法
【5月更文挑战第18天】探索机器学习中的决策树算法,一种基于树形结构的监督学习,常用于分类和回归。算法通过递归划分数据,选择最优特征以提高子集纯净度。优点包括直观、高效、健壮和可解释,但易过拟合、对连续数据处理不佳且不稳定。广泛应用于信贷风险评估、医疗诊断和商品推荐等领域。优化方法包括集成学习、特征工程、剪枝策略和参数调优。
|
5天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】K-means算法与PCA算法之间有什么联系?
【5月更文挑战第15天】【机器学习】K-means算法与PCA算法之间有什么联系?
|
5天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】维度灾难问题会如何影响K-means算法?
【5月更文挑战第15天】【机器学习】维度灾难问题会如何影响K-means算法?
|
6天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】聚类算法中,如何判断数据是否被“充分”地聚类,以便算法产生有意义的结果?
【5月更文挑战第14天】【机器学习】聚类算法中,如何判断数据是否被“充分”地聚类,以便算法产生有意义的结果?
|
6天前
|
机器学习/深度学习 运维 算法
【机器学习】可以利用K-means算法找到数据中的离群值吗?
【5月更文挑战第14天】【机器学习】可以利用K-means算法找到数据中的离群值吗?
|
6天前
|
机器学习/深度学习 分布式计算 并行计算
【机器学习】怎样在非常大的数据集上执行K-means算法?
【5月更文挑战第13天】【机器学习】怎样在非常大的数据集上执行K-means算法?
|
6天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】列举几种情况,在这些情况下K-means算法难以取得较好效果
【5月更文挑战第13天】【机器学习】列举几种情况,在这些情况下K-means算法难以取得较好效果
|
6天前
|
机器学习/深度学习 传感器 算法
【机器学习】在聚类算法中,使用曼哈顿距离和使用欧式距离有什么区别?
【5月更文挑战第12天】【机器学习】在聚类算法中,使用曼哈顿距离和使用欧式距离有什么区别?