PySpark数据分析基础:pyspark.mllib.regression机器学习回归核心类详解(一)+代码详解

简介: PySpark数据分析基础:pyspark.mllib.regression机器学习回归核心类详解(一)+代码详解

前言

PySpark数据分析基础系列文章更新有一段时间了,其中环境搭建和各个组件部署都已经完成。借此征文活动我将继续更新Pyspark这一大块内容的主体部分,也是十分重要且比较难懂不易编程的部分。在从事大数据计算以及分析的这段历程中,陪伴我最多的也就是anaconda和Jupyter了,当然此次演示还是用到这些工具,文章紧接此系列的上篇文章内容。若将来想要从事数据挖掘和大数据分析的相关职业,不妨可以关注博主和订阅博主的一些专栏,我将承诺每篇文章将用心纂写长期维护,尽可能输出毕生所学结合如今先有案例项目和技术将每个知识点都讲明白清楚。


希望读者看完能够在评论区提出错误或者看法,博主会长期维护博客做及时更新。


虽然我们讲的是Pyspark MLlib某个片段内容,但是是整个系列的第一次讲述Spark MLlib,所以首先还是对整Spark做一个简要的概述。


一、Spark MLlib


MLlib构建在Spark之上,是一个可扩展的机器学习库,它提供了一组统一的高级API,帮助用户创建和调整实用的机器学习管道。MLBase分为四部分:MLlib、MLI、ML Optimizer和MLRuntime。


   ML Optimizer会选择它认为最适合的已经在内部实现好了的机器学习算法和相关参数,来处理用户输入的数据,并返回模型或别的帮助分析的结果;

   MLI 是一个进行特征抽取和高级ML编程抽象的算法实现的API或平台;

   MLlib是Spark实现一些常见的机器学习算法和实用程序,包括分类、回归、聚类、协同过滤、降维以及底层优化,该算法可以进行可扩充; MLRuntime 基于Spark计算框架,将Spark的分布式计算应用到机器学习领域。

PySpark可以直接调用spark几乎大部分的函数和接口,操作代码十分方便。根据机器学习的需要,spark有一整个机器学习的包可以调用,类似python的sklearn一样。调用相关函数即可实现对应功能,而且在分布式基础之上计算能力会更加卓越。


二、回归类


1.LabeledPoint


该类用于添加或者构建数据集测试非常好用,该类可以生成一条带有特征和标签的数据集。


函数语法:

LabeledPoint(label: float, features: Iterable[float])

参数说明:

  • label:接收int类型,指定数据的标签
  • features:可以接收pyspark.mllib.linalg.Vector或者是数组。

使用实例:

data = [
    LabeledPoint(0.0, [0.0, 1.0,2.0]),
    LabeledPoint(1.0, [1.0, 0.0,2.0]),
]


这样就创建了一个小型数据集,可以通过random加上循环构建出随机测试数据集。

2.LinearModel


生成一个具有系数向量和截距的线性模型。


函数语法:

LinearModel(weights: pyspark.mllib.linalg.Vector, intercept: float)

参数说明:

  • weights:接收pyspark.mllib.linalg.Vector或者是数组,指定权重。
  • intercept:接收float类型,为该模型计算的截距。

使用实例:

lrm = LinearModel([0.2,0.5,0.8],intercept=0.2)

这个函数没有子方法,实际运用起来也很少,几乎用处不大。


3.LinearRegressionModel


生成一个由最小二乘拟合得出的线性回归模型。python的线性拟合都是依据最小二乘法来拟合的。


函数语法:

LinearRegressionModel(weights: pyspark.mllib.linalg.Vector, intercept: float)

和线性模型的参数一样:


  • label:接收int类型,指定数据的标签
  • features:可以接收pyspark.mllib.linalg.Vector或者是数组。


但是该函数拥有三个子方法:

  • load(sc, path):登陆一个LinearRegressionModel模型。
  • predict(x):预测给定向量或包含自变量值的向量RDD的因变量值。
  • save(x):保存一个LinearRegressionModel模型。


load方法


load(sc: pyspark.context.SparkContext, path: str)

参数说明:


sc:输入指定的SparkContext。

path:输入指定的路径名称。

sameModel = LinearRegressionModel.load(sc, path)

predict方法


语法:

predict(x: Union[VectorLike, pyspark.rdd.RDD[VectorLike]]) → Union[float, pyspark.rdd.RDD[float]]


预测给定向量或包含自变量值的向量RDD的因变量值。


参数说明:


x:输入向量以及RDD数据或者是小数加上RDD数据

lrm = LinearRegressionModel([0.2],intercept=3)
lrm.predict([0.2])

511ae1f0273042aea27855ddf2542f58.png

save方法


语法:


save(sc: pyspark.context.SparkContext, path: str)


保存一个LinearRegressionModel模型。


4.LinearRegressionWithSGD


生成一个使用随机梯度下降训练无正则化的线性回归模型。


SGD的含义就是Stochastic Gradient Descent (SGD),随机梯度下降。该模型通过train方法训练。


train方法

classmethod train(data: pyspark.rdd.RDD[pyspark.mllib.regression.LabeledPoint],
                  iterations: int = 100, 
                  step: float = 1.0, 
                  miniBatchFraction: float = 1.0, 
                  initialWeights: Optional[VectorLike] = None,
                  regParam: float = 0.0,
                  regType: Optional[str] = None,
                  intercept: bool = False,
                  validateData: bool = True,
                  convergenceTol: float = 0.001) 
 → pyspark.mllib.regression.LinearRegressionModel

使用随机梯度下降(SGD)训练线性回归模型解决了最小二乘回归公式:

gif.gif

的均方误差。数据矩阵有n行,输入RDD保存A的行集合,每个行都有相应的右侧标签y。


参数说明:


data:接收类型为Pyspark.RDD。指定训练用到的数据集,可以是LabeledPoint的RDD。

iterations:接收类型为int,指定迭代次数。

step:接收类型为float,SGD中使用的阶跃参数,默认为1.0。

miniBatchFraction:接收类型为float,用于每次SGD迭代的数据部分,默认为1.0.

initialWeights:接收类型为pyspark.mllib.linalg.Vector,指定初始权重。

regParam:接收类型为float,为正则化参数。默认为0.0.

regType:接收类型为str,用于训练模型的正则化子类型。

使用l1正则化:“l1”

使用l2正则化:“l2”

若为None则表示无正则化(默认)

intercept:接收类型为bool,指示是否使用训练数据的增强表示(即是否激活偏差特征)。(默认值:False)

validateData:接收类型为bool,指示算法是否应在训练前验证数据。(默认值:True)

convergenceTol:接收类型为float,决定迭代终止的条件。(默认值:0.001)

data = [
    LabeledPoint(0.0, [0.0]),
    LabeledPoint(1.0, [1.0]),
    LabeledPoint(3.0, [2.0]),
    LabeledPoint(2.0, [3.0])
]
lrm = LinearRegressionWithSGD.train(sc.parallelize(data), iterations=10,initialWeights=np.array([1.0]))
lrm.predict(np.array([0.0]))

499e5d96d8a84b4eb29c6fffc65b8c03.png

同样化为SparseVector也是一样:

data = [
    LabeledPoint(0.0, SparseVector(1, {0: 0.0})),
    LabeledPoint(1.0, SparseVector(1, {0: 1.0})),
    LabeledPoint(3.0, SparseVector(1, {0: 2.0})),
    LabeledPoint(2.0, SparseVector(1, {0: 3.0}))
]
lrm = LinearRegressionWithSGD.train(sc.parallelize(data), iterations=10,initialWeights=np.array([1.0]))
lrm.predict(np.array([0.0]))

5c5f1ae0a7bd409da20b85cbd2d0bbaa.png

目录
相关文章
|
2月前
|
机器学习/深度学习 SQL 数据可视化
业务类数据分析师
业务类数据分析师
34 2
|
3月前
|
供应链 数据挖掘 Serverless
【python】美妆类商品跨境电商数据分析(源码+课程论文+数据集)【独一无二】
【python】美妆类商品跨境电商数据分析(源码+课程论文+数据集)【独一无二】
【python】美妆类商品跨境电商数据分析(源码+课程论文+数据集)【独一无二】
|
5月前
|
机器学习/深度学习 人工智能 算法
人工智能平台PAI产品使用合集之在执行shade打包后遇到“类找不到”的错误,是什么原因
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
5月前
|
存储 机器学习/深度学习 缓存
如何使用PySpark进行离线数据分析?
【6月更文挑战第15天】如何使用PySpark进行离线数据分析?
79 10
|
5月前
|
机器学习/深度学习 分布式计算 数据挖掘
如何使用PySpark进行实时数据分析?
【6月更文挑战第15天】如何使用PySpark进行实时数据分析?
79 7
|
5月前
|
分布式计算 数据可视化 数据挖掘
基于PySpark进行去哪儿网数据分析
基于PySpark进行去哪儿网数据分析
|
4月前
|
存储 消息中间件 数据挖掘
Python实时数据分析:利用丰富的库(如Pandas, PySpark, Kafka)进行流处理,涵盖数据获取、预处理、处理、存储及展示。
【7月更文挑战第5天】Python实时数据分析:利用丰富的库(如Pandas, PySpark, Kafka)进行流处理,涵盖数据获取、预处理、处理、存储及展示。示例代码展示了从Kafka消费数据,计算社交媒体活跃度和物联网设备状态,并可视化结果。适用于监控、故障检测等场景。通过学习和实践,提升实时数据分析能力。
114 0
|
5月前
|
机器学习/深度学习 算法 搜索推荐
【机器学习】近邻类模型:KNN算法在数据科学中的实践与探索
【机器学习】近邻类模型:KNN算法在数据科学中的实践与探索
100 0
|
5月前
|
机器学习/深度学习 人工智能 机器人
【机器学习】符号主义类模型:解码智能的逻辑之钥
【机器学习】符号主义类模型:解码智能的逻辑之钥
117 0
|
6月前
|
机器学习/深度学习 数据采集 数据可视化
机器学习 —— 分类预测与集成学习(上)
机器学习 —— 分类预测与集成学习