Python实现GBDT(梯度提升树)回归模型(GradientBoostingRegressor算法)项目实战

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
简介: Python实现GBDT(梯度提升树)回归模型(GradientBoostingRegressor算法)项目实战

说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。

image.png

image.png

1.项目背景

GBDT是Gradient Boosting Decision Tree(梯度提升树)的缩写。出版社在对图书进行定价时会考虑图书的页数、纸张、类别、内容、作者及读者等很多因素,用人工来分析较为烦琐,并且容易遗漏。如果能建立一个模型综合考虑各方面因素对图书进行定价,那么就能更加科学合理地节约成本、提升效率,并在满足读者需求的同时促进销售,挖掘更多潜在利润。该GBDT算法产品定价模型也可以用于其他领域的产品定价,如金融产品的定价。  

2.数据获取

本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下

编号 

变量名称

描述

1

页数

 

2

类别

 

3

彩印

其中0代表黑白印刷,1代表彩色印刷

4

纸张

 

5

价格

 

数据详情如下(部分展示):

image.png

3.数据预处理

3.1 用Pandas工具查看数据

使用Pandas工具的head()方法查看前五行数据:

image.png

关键代码:

image.png

3.2数据缺失查看

使用Pandas工具的info()方法查看数据信息:

image.png

从上图可以看到,总共有5个变量,数据中无缺失值,共1000条数据。

关键代码:

image.png

 

3.3数据描述性统计

通过Pandas工具的describe()方法来查看数据的平均值、标准差、最小值、分位数、最大值。

image.png

关键代码如下:

image.png

4.探索性数据分析

4.1 价格变量的折线图

用Matplotlib工具的plot()方法绘制折线图:

image.png

4.2 类别变量柱状图

用Pandas工具的plot(kind=‘bar’)方法绘制柱状图:

image.png

4.3 彩印变量柱状图

用Pandas工具的plot(kind=‘bar’)方法绘制柱状图:

image.png

4.4 纸张变量柱状图

用Pandas工具的plot(kind=‘bar’)方法绘制柱状图:

image.png

 

4.5 相关性分析

image.png

 

从上图中可以看到,数值越大相关性越强,正值是正相关、负值是负相关。

5.特征工程

5.1 分类型文本变量处理

在数据集中,类别和纸张变量为分类型文本变量,本文变量无法直接应用于机器学习,需要转换成数值型变量,本项目使用LabelEncoder()标签编码进行转换,转换后的结果为:

image.png

5.2 建立特征数据和标签数据

关键代码如下:

image.png

5.3 数据集拆分

通过train_test_split()方法按照80%训练集、20%测试集进行划分,关键代码如下:

image.png

5.4 特征选择:递归特征删除算法

使用RFE()方法进行特征选择,返回特征的贡献情况,关键代码如下:

image.png

返回的结果:

[(4, '页数'), (3, '纸张'), (2, '类别'), (1, '彩印')]

返回的是特征贡献度,可以看到最大的是 页数变量,最小的是 彩印变量。这个在实际应用过程中,根据需要进行选择,由于本案例使用的特征变量不多,所以后续的建模中,所有特征变量都参与。

6.构建GBDT回归模型

主要使用GradientBoostingRegressor算法,用于目标回归。 

6.1模型参数

编号

模型名称

参数

1

GBDT回归模型

learning_rate=0.1

2

n_estimators=100

3

min_samples_split=2

4

max_depth=3

5

random_state=42

 

7.模型评估

7.1评估指标及结果 

评估指标主要包括可解释方差值、平均绝对误差、均方误差、R方值等等。

模型名称

指标名称

指标值

测试集

GBDT回归模型

可解释方差值

0.8474

平均绝对误差

4.8346

均方误差

68.0959

R方

0.8465

从上表可以看出,R方为84.65%  可解释方差值84.74%,GBDT回归模型效果良好。

关键代码如下:

image.png

7.2 真实值与预测值对比图

image.png

从上图可以看出真实值和预测值波动基本一致,模型拟合效果良好。

7.3 模型特征重要性

特征重要性如图所示:

image.png

从上图可以看到特征变量对此模型的重要性依次为:页数、类别、彩印、纸张。

8.结论与展望

综上所述,本文采用了GBDT回归模型,最终证明了我们提出的模型效果良好。此模型可用于日常产品的定价。

# 本次机器学习项目实战所需的资料,项目资源如下:
 
# 项目说明:
 
# 获取方式一:
 
# 项目实战合集导航:
 
https://docs.qq.com/sheet/DTVd0Y2NNQUlWcmd6?tab=BB08J2
 
# 获取方式二:
 
链接:https://pan.baidu.com/s/1HAElROqJovzOnIjT-hnUNA 
提取码:2k4j
相关实践学习
使用PAI+LLaMA Factory微调Qwen2-VL模型,搭建文旅领域知识问答机器人
使用PAI和LLaMA Factory框架,基于全参方法微调 Qwen2-VL模型,使其能够进行文旅领域知识问答,同时通过人工测试验证了微调的效果。
机器学习概览及常见算法
机器学习(Machine Learning, ML)是人工智能的核心,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。 本课程将带你入门机器学习,掌握机器学习的概念和常用的算法。
相关文章
|
7天前
|
机器学习/深度学习 并行计算 算法
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
|
7天前
|
机器学习/深度学习 资源调度 算法
遗传算法模型深度解析与实战应用
摘要 遗传算法(GA)作为一种受生物进化启发的优化算法,在复杂问题求解中展现出独特优势。本文系统介绍了GA的核心理论、实现细节和应用经验。算法通过模拟自然选择机制,利用选择、交叉、变异三大操作在解空间中进行全局搜索。与梯度下降等传统方法相比,GA不依赖目标函数的连续性或可微性,特别适合处理离散优化、多目标优化等复杂问题。文中详细阐述了染色体编码、适应度函数设计、遗传操作实现等关键技术,并提供了Python代码实现示例。实践表明,GA的成功应用关键在于平衡探索与开发,通过精心调参维持种群多样性同时确保收敛效率
42 7
|
7天前
|
机器学习/深度学习 编解码 算法
【机器人路径规划】基于迪杰斯特拉算法(Dijkstra)的机器人路径规划(Python代码实现)
【机器人路径规划】基于迪杰斯特拉算法(Dijkstra)的机器人路径规划(Python代码实现)
|
7天前
|
机器学习/深度学习 算法 机器人
【机器人路径规划】基于A*算法的机器人路径规划研究(Python代码实现)
【机器人路径规划】基于A*算法的机器人路径规划研究(Python代码实现)
|
7天前
|
机器学习/深度学习 边缘计算 人工智能
粒子群算法模型深度解析与实战应用
蒋星熠Jaxonic是一位深耕智能优化算法领域多年的技术探索者,专注于粒子群优化(PSO)算法的研究与应用。他深入剖析了PSO的数学模型、核心公式及实现方法,并通过大量实践验证了其在神经网络优化、工程设计等复杂问题上的卓越性能。本文全面展示了PSO的理论基础、改进策略与前沿发展方向,为读者提供了一份详尽的技术指南。
25 0
粒子群算法模型深度解析与实战应用
|
7天前
|
机器学习/深度学习 运维 算法
基于粒子群优化算法的配电网光伏储能双层优化配置模型[IEEE33节点](选址定容)(Matlab代码实现)
基于粒子群优化算法的配电网光伏储能双层优化配置模型[IEEE33节点](选址定容)(Matlab代码实现)
|
7天前
|
机器学习/深度学习 算法 机器人
【机器人路径规划】基于D*算法的机器人路径规划(Python代码实现)
【机器人路径规划】基于D*算法的机器人路径规划(Python代码实现)
|
7天前
|
机器学习/深度学习 算法 机器人
【机器人路径规划】基于改进型A*算法的机器人路径规划(Python代码实现)
【机器人路径规划】基于改进型A*算法的机器人路径规划(Python代码实现)
|
2天前
|
传感器 算法 数据挖掘
基于协方差交叉(CI)的多传感器融合算法matlab仿真,对比单传感器和SCC融合
基于协方差交叉(CI)的多传感器融合算法,通过MATLAB仿真对比单传感器、SCC与CI融合在位置/速度估计误差(RMSE)及等概率椭圆上的性能。采用MATLAB2022A实现,结果表明CI融合在未知相关性下仍具鲁棒性,有效降低估计误差。
|
4天前
|
负载均衡 算法 调度
基于遗传算法的新的异构分布式系统任务调度算法研究(Matlab代码实现)
基于遗传算法的新的异构分布式系统任务调度算法研究(Matlab代码实现)
60 11

推荐镜像

更多