PySpark数据分析基础:pyspark.mllib.regression机器学习回归核心类详解(一)+代码详解

简介: PySpark数据分析基础:pyspark.mllib.regression机器学习回归核心类详解(一)+代码详解

前言

PySpark数据分析基础系列文章更新有一段时间了,其中环境搭建和各个组件部署都已经完成。借此征文活动我将继续更新Pyspark这一大块内容的主体部分,也是十分重要且比较难懂不易编程的部分。在从事大数据计算以及分析的这段历程中,陪伴我最多的也就是anaconda和Jupyter了,当然此次演示还是用到这些工具,文章紧接此系列的上篇文章内容。若将来想要从事数据挖掘和大数据分析的相关职业,不妨可以关注博主和订阅博主的一些专栏,我将承诺每篇文章将用心纂写长期维护,尽可能输出毕生所学结合如今先有案例项目和技术将每个知识点都讲明白清楚。


希望读者看完能够在评论区提出错误或者看法,博主会长期维护博客做及时更新。


虽然我们讲的是Pyspark MLlib某个片段内容,但是是整个系列的第一次讲述Spark MLlib,所以首先还是对整Spark做一个简要的概述。


一、Spark MLlib


MLlib构建在Spark之上,是一个可扩展的机器学习库,它提供了一组统一的高级API,帮助用户创建和调整实用的机器学习管道。MLBase分为四部分:MLlib、MLI、ML Optimizer和MLRuntime。


   ML Optimizer会选择它认为最适合的已经在内部实现好了的机器学习算法和相关参数,来处理用户输入的数据,并返回模型或别的帮助分析的结果;

   MLI 是一个进行特征抽取和高级ML编程抽象的算法实现的API或平台;

   MLlib是Spark实现一些常见的机器学习算法和实用程序,包括分类、回归、聚类、协同过滤、降维以及底层优化,该算法可以进行可扩充; MLRuntime 基于Spark计算框架,将Spark的分布式计算应用到机器学习领域。

PySpark可以直接调用spark几乎大部分的函数和接口,操作代码十分方便。根据机器学习的需要,spark有一整个机器学习的包可以调用,类似python的sklearn一样。调用相关函数即可实现对应功能,而且在分布式基础之上计算能力会更加卓越。


二、回归类


1.LabeledPoint


该类用于添加或者构建数据集测试非常好用,该类可以生成一条带有特征和标签的数据集。


函数语法:

LabeledPoint(label: float, features: Iterable[float])

参数说明:

  • label:接收int类型,指定数据的标签
  • features:可以接收pyspark.mllib.linalg.Vector或者是数组。

使用实例:

data = [
    LabeledPoint(0.0, [0.0, 1.0,2.0]),
    LabeledPoint(1.0, [1.0, 0.0,2.0]),
]


这样就创建了一个小型数据集,可以通过random加上循环构建出随机测试数据集。

2.LinearModel


生成一个具有系数向量和截距的线性模型。


函数语法:

LinearModel(weights: pyspark.mllib.linalg.Vector, intercept: float)

参数说明:

  • weights:接收pyspark.mllib.linalg.Vector或者是数组,指定权重。
  • intercept:接收float类型,为该模型计算的截距。

使用实例:

lrm = LinearModel([0.2,0.5,0.8],intercept=0.2)

这个函数没有子方法,实际运用起来也很少,几乎用处不大。


3.LinearRegressionModel


生成一个由最小二乘拟合得出的线性回归模型。python的线性拟合都是依据最小二乘法来拟合的。


函数语法:

LinearRegressionModel(weights: pyspark.mllib.linalg.Vector, intercept: float)

和线性模型的参数一样:


  • label:接收int类型,指定数据的标签
  • features:可以接收pyspark.mllib.linalg.Vector或者是数组。


但是该函数拥有三个子方法:

  • load(sc, path):登陆一个LinearRegressionModel模型。
  • predict(x):预测给定向量或包含自变量值的向量RDD的因变量值。
  • save(x):保存一个LinearRegressionModel模型。


load方法


load(sc: pyspark.context.SparkContext, path: str)

参数说明:


sc:输入指定的SparkContext。

path:输入指定的路径名称。

sameModel = LinearRegressionModel.load(sc, path)

predict方法


语法:

predict(x: Union[VectorLike, pyspark.rdd.RDD[VectorLike]]) → Union[float, pyspark.rdd.RDD[float]]


预测给定向量或包含自变量值的向量RDD的因变量值。


参数说明:


x:输入向量以及RDD数据或者是小数加上RDD数据

lrm = LinearRegressionModel([0.2],intercept=3)
lrm.predict([0.2])

511ae1f0273042aea27855ddf2542f58.png

save方法


语法:


save(sc: pyspark.context.SparkContext, path: str)


保存一个LinearRegressionModel模型。


4.LinearRegressionWithSGD


生成一个使用随机梯度下降训练无正则化的线性回归模型。


SGD的含义就是Stochastic Gradient Descent (SGD),随机梯度下降。该模型通过train方法训练。


train方法

classmethod train(data: pyspark.rdd.RDD[pyspark.mllib.regression.LabeledPoint],
                  iterations: int = 100, 
                  step: float = 1.0, 
                  miniBatchFraction: float = 1.0, 
                  initialWeights: Optional[VectorLike] = None,
                  regParam: float = 0.0,
                  regType: Optional[str] = None,
                  intercept: bool = False,
                  validateData: bool = True,
                  convergenceTol: float = 0.001) 
 → pyspark.mllib.regression.LinearRegressionModel

使用随机梯度下降(SGD)训练线性回归模型解决了最小二乘回归公式:

gif.gif

的均方误差。数据矩阵有n行,输入RDD保存A的行集合,每个行都有相应的右侧标签y。


参数说明:


data:接收类型为Pyspark.RDD。指定训练用到的数据集,可以是LabeledPoint的RDD。

iterations:接收类型为int,指定迭代次数。

step:接收类型为float,SGD中使用的阶跃参数,默认为1.0。

miniBatchFraction:接收类型为float,用于每次SGD迭代的数据部分,默认为1.0.

initialWeights:接收类型为pyspark.mllib.linalg.Vector,指定初始权重。

regParam:接收类型为float,为正则化参数。默认为0.0.

regType:接收类型为str,用于训练模型的正则化子类型。

使用l1正则化:“l1”

使用l2正则化:“l2”

若为None则表示无正则化(默认)

intercept:接收类型为bool,指示是否使用训练数据的增强表示(即是否激活偏差特征)。(默认值:False)

validateData:接收类型为bool,指示算法是否应在训练前验证数据。(默认值:True)

convergenceTol:接收类型为float,决定迭代终止的条件。(默认值:0.001)

data = [
    LabeledPoint(0.0, [0.0]),
    LabeledPoint(1.0, [1.0]),
    LabeledPoint(3.0, [2.0]),
    LabeledPoint(2.0, [3.0])
]
lrm = LinearRegressionWithSGD.train(sc.parallelize(data), iterations=10,initialWeights=np.array([1.0]))
lrm.predict(np.array([0.0]))

499e5d96d8a84b4eb29c6fffc65b8c03.png

同样化为SparseVector也是一样:

data = [
    LabeledPoint(0.0, SparseVector(1, {0: 0.0})),
    LabeledPoint(1.0, SparseVector(1, {0: 1.0})),
    LabeledPoint(3.0, SparseVector(1, {0: 2.0})),
    LabeledPoint(2.0, SparseVector(1, {0: 3.0}))
]
lrm = LinearRegressionWithSGD.train(sc.parallelize(data), iterations=10,initialWeights=np.array([1.0]))
lrm.predict(np.array([0.0]))

5c5f1ae0a7bd409da20b85cbd2d0bbaa.png

目录
相关文章
|
1月前
|
机器学习/深度学习 数据采集 人工智能
探索机器学习:从理论到Python代码实践
【10月更文挑战第36天】本文将深入浅出地介绍机器学习的基本概念、主要算法及其在Python中的实现。我们将通过实际案例,展示如何使用scikit-learn库进行数据预处理、模型选择和参数调优。无论你是初学者还是有一定基础的开发者,都能从中获得启发和实践指导。
47 2
|
1月前
|
机器学习/深度学习 数据采集 人工智能
揭秘AI:机器学习的魔法与代码
【10月更文挑战第33天】本文将带你走进AI的世界,了解机器学习的原理和应用。我们将通过Python代码示例,展示如何实现一个简单的线性回归模型。无论你是AI新手还是有经验的开发者,这篇文章都会给你带来新的启示。让我们一起探索AI的奥秘吧!
|
2月前
|
数据采集 移动开发 数据可视化
模型预测笔记(一):数据清洗分析及可视化、模型搭建、模型训练和预测代码一体化和对应结果展示(可作为baseline)
这篇文章介绍了数据清洗、分析、可视化、模型搭建、训练和预测的全过程,包括缺失值处理、异常值处理、特征选择、数据归一化等关键步骤,并展示了模型融合技术。
152 1
模型预测笔记(一):数据清洗分析及可视化、模型搭建、模型训练和预测代码一体化和对应结果展示(可作为baseline)
|
2月前
|
机器学习/深度学习 人工智能 算法
揭开深度学习与传统机器学习的神秘面纱:从理论差异到实战代码详解两者间的选择与应用策略全面解析
【10月更文挑战第10天】本文探讨了深度学习与传统机器学习的区别,通过图像识别和语音处理等领域的应用案例,展示了深度学习在自动特征学习和处理大规模数据方面的优势。文中还提供了一个Python代码示例,使用TensorFlow构建多层感知器(MLP)并与Scikit-learn中的逻辑回归模型进行对比,进一步说明了两者的不同特点。
104 2
|
2月前
|
JSON 测试技术 API
阿里云PAI-Stable Diffusion开源代码浅析之(二)我的png info怎么有乱码
阿里云PAI-Stable Diffusion开源代码浅析之(二)我的png info怎么有乱码
|
2月前
|
机器学习/深度学习 算法 API
【机器学习】正则化,欠拟合与过拟合(详细代码与图片演示!助你迅速拿下!!!)
【机器学习】正则化,欠拟合与过拟合(详细代码与图片演示!助你迅速拿下!!!)
|
4月前
|
数据采集 数据可视化 数据挖掘
使用Python进行数据分析的新手指南深入浅出操作系统:从理论到代码实践
【8月更文挑战第30天】在数据驱动的世界中,掌握数据分析技能变得越来越重要。本文将引导你通过Python这门强大的编程语言来探索数据分析的世界。我们将从安装必要的软件包开始,逐步学习如何导入和清洗数据,以及如何使用Pandas库进行数据操作。文章最后会介绍如何使用Matplotlib和Seaborn库来绘制数据图表,帮助你以视觉方式理解数据。无论你是编程新手还是有经验的开发者,这篇文章都将为你打开数据分析的大门。
|
3月前
|
机器学习/深度学习 人工智能 算法
探索人工智能:机器学习的基本原理与Python代码实践
【9月更文挑战第6天】本文深入探讨了人工智能领域中的机器学习技术,旨在通过简明的语言和实际的编码示例,为初学者提供一条清晰的学习路径。文章不仅阐述了机器学习的基本概念、主要算法及其应用场景,还通过Python语言展示了如何实现一个简单的线性回归模型。此外,本文还讨论了机器学习面临的挑战和未来发展趋势,以期激发读者对这一前沿技术的兴趣和思考。
|
4月前
|
持续交付 测试技术 jenkins
JSF 邂逅持续集成,紧跟技术热点潮流,开启高效开发之旅,引发开发者强烈情感共鸣
【8月更文挑战第31天】在快速发展的软件开发领域,JavaServer Faces(JSF)这一强大的Java Web应用框架与持续集成(CI)结合,可显著提升开发效率及软件质量。持续集成通过频繁的代码集成及自动化构建测试,实现快速反馈、高质量代码、加强团队协作及简化部署流程。以Jenkins为例,配合Maven或Gradle,可轻松搭建JSF项目的CI环境,通过JUnit和Selenium编写自动化测试,确保每次构建的稳定性和正确性。
65 0
|
4月前
|
机器学习/深度学习 并行计算 TensorFlow
GPU加速TensorFlow模型训练:从环境配置到代码实践的全方位指南,助你大幅提升深度学习应用性能,让模型训练不再等待
【8月更文挑战第31天】本文以随笔形式探讨了如何在TensorFlow中利用GPU加速模型训练,并提供了详细的实践指南。从安装支持GPU的TensorFlow版本到配置NVIDIA CUDA及cuDNN库,再到构建CNN模型并使用MNIST数据集训练,全面展示了GPU加速的重要性与实现方法。通过对比CPU与GPU上的训练效果,突显了GPU在提升训练速度方面的显著优势。最后,还介绍了如何借助TensorBoard监控训练过程,以便进一步优化模型。
807 0