工业蒸汽量预测比赛全流程解析(附详细Python代码)

本文涉及的产品
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 本文所采用的数据集来自于阿里云天池比赛,描述了整个数据挖掘的过程及详细代码,共尝试了5套机器学习算法

采用的数据集情况

本文所采用的数据集来自于阿里云天池比赛,比赛的链接地址为:阿里云天池工业蒸汽量预测比赛链接
其中所下载的数据集包括两个txt文件:zhengqi_train.txt(训练集)和zhengqi_test.txt(测试集)

数据导入

因本文的主要目的是以介绍整个挖掘流程为主,因此采用根据需要逐步导入所需要的库的形式,以下先导入numpy和pandas两个库。

import numpy as np
import pandas as pd

使用pandas导入已经预先下载并存放在本地的训练集和测试集,结合本次的数据集为txt文件,并且数据之间的分隔符为'\t',因此导入文件的代码如下:

df_train=pd.read_csv(r'D:\zhengqi\zhengqi_train.txt',sep='\t')
df_test=pd.read_csv(r'D:\zhengqi\zhengqi_test.txt',sep='\t')

数据概览

使用head查看训练集和测试集前5条数据的情况:

df_train.head()

image.png

从图中可以看到,训练集总共有39列,其中包括V0至V37共38个特征,target为本次的预测标签值。

df_test.head()

image.png

测试集总共有38列,其中包括V0至V37共38个特征,没有target,本次的预测就是需要根据训练完成的模型,提交测试集的target值。

使用info查看训练集和测试集的整体情况如下:

df_train.info()

image.png


image.png


可以看到,训练集的数据总数为2888条,因为Python默认的index排序是从0开始,所以index显示为0至2887条。non-null代表数据中没有缺失值,因此不需要对于数据进行缺失值填充;float64(39)代表39列数据全部为浮点形式数值数据,不需要进行格式上的转换。

df_test.info()

image.png


image.png


测试集的数据总数为1925条,index序号为0至1924条。测试集中的数据同样没有缺失值;float64(38)代表38列数据全部为浮点形式数值数据,不需要进行格式上的转换。因此,训练集数据的总体情况和测试集数据是一致的。

特征工程

加载接下去要使用的两个库,matplotlib和seaborn都是Python中常用的可视化工具库。

import matplotlib.pyplot as plt
import seaborn as sns

用以下代码提取出训练集中所有的特征标签,方便之后使用:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

feature_list即特征标签列表如下:

['V0','V1','V2','V3','V4','V5','V6','V7','V8','V9','V10','V11','V12','V13','V14','V15','V16','V17', 'V18', 'V19', 'V20', 'V21', 'V22', 'V23', 'V24','V25', 'V26', 'V27', 'V28', 'V29', 'V30', 'V31',
'V32', 'V33', 'V34', 'V35', 'V36', 'V37']

数据分布情况核实

首先需要核实的是训练集的各特征数据分布情况是否和测试集一致,当两者出现较大差异时,将会导致模型失效的情况,可视化对比过程如以下代码所示:

#对于特征标签列表feature_list中的特征标签进行操作,逐个绘制单变量数据
分布图,训练集和测试集的相同特征分布情况绘制在同一张图上以方便比对
for i in feature_list:
    sns.distplot(df_train[{i}])
    sns.distplot(df_test[{i}])
    plt.title(i)
    plt.show()

对于特征数较多的数据集,采用subplot方式绘制各类图是更好的选择,本文因为特征数并不算太多,为了更清晰的进行可视化展现,采用了一个for循环进行逐幅绘制的方式。

从V0到V37,总共生成了38幅单变量数据分布图,其中蓝色的是某特征训练集的数据分布情况,黄色的是测试集的数据分布情况。根据这38幅图,可以判断训练集和测试集各个特征的数据分布是否一致。以下选取典型的4幅作说明:

image.png


训练集和测试集的V0特征数据分布一致


image.png


训练集和测试集的V1特征数据分布一致


image.png


训练集和测试集的V5特征数据分布不一致


image.png


训练集和测试集的V17特征数据分布不一致


理想状态下,针对同一特征,训练集的数据分布曲线应该和测试集的数据分布曲线完全一致,但是这在实际过程中并不多见。如V0和V1两个特征的分布图可以发现,虽然训练集和测试集的数据分布情况略有差异,但仍然可以认为是分布情况一致的。而V5和V17特征图清晰的反映了数据分布不一致的情况。

同时在训练集和测试集中将数据分布不一致的特征去除,代码如下:

df_train=df_train[['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36','target']]
df_test=df_test[['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36']]

因为训练集和测试集的特征经过了筛选都发生了变化,为了方便之后的操作,重新提取出训练集中所有的特征标签,更新特征标签列表feature_list:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

更新后的特征标签列表feature_list如下:

['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36']

相关性分析

对于训练集进行相关性分析,所采用的方法为计算皮尔逊相关系数,Python中可以直接在数据集上采用corr的方法,默认的相关系数计算方式就是皮尔逊相关系数。

df_train.corr()

image.png


本文的案例我们只分析各特征标签与预测标签(target)之间的相关性,查看上表的最后一列相关系数计算结果,相关系数的绝对值大于0.5的为强相关性,小于0.5的为弱相关性,0附近的为没有相关性,系数为正代表正相关,系数为负代表负相关。

以可视化方法绘制特征标签与预测标签(target)的散点图,与相关系数的计算结果进行相互校对:

for i in feture_list:
    sns.scatterplot(df_train[f'{i}'],df_train['target'])
    plt.show()

在生成的所有散点图中挑选几幅典型的图来说明不同的相关系数下,散点图的大致形状:

image.png


相关系数0.87,强相关性


image.png


相关系数0.87,强相关性


image.png


相关系数0.6,强相关性


image.png


相关系数0.15,无相关性


image.png


相关系数0.17,无相关性


以0.5为界限,同时在训练集和测试集中去除相关系数绝对值低于0.5的特征,确保被输入模型进行训练的特征与预测目标值有较强的相关性。

df_train=df_train[['V0','V1','V3','V4','V8','V12','V16','V31','target']]
df_test=df_test[['V0','V1','V3','V4','V8','V12','V16','V31']]

因训练集和测试集的特征再次经过筛选,因此再次更新特征标签列表feature_list:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

更新后的特征标签列表feature_list如下:

['V0','V1','V3','V4','V8','V12','V16','V31']

正态分布检验

对于完成进一步筛选的数据集做正态分布检验,以确定是否需要进一步将数据尽可能转换成正态分布的形式,本文同样同时采用指标计算的方法和可视化的方法来同时进行正态分布检验。

导入正态分布检验所需要用到的库:

from scipy import stats

首先检验各个特征中数据的偏度,偏度定义中包括正态分布(偏度=0),右偏分布(也叫正偏分布,其偏度>0),左偏分布(也叫负偏分布,其偏度<0)。

for i in feture_list:
    skew = stats.skew(df_train[f'{i}'])
    print(f'the skew value of feture {i} is {skew}')

image.png


根据偏度的检验结果,各个特征的数据都为左偏,但是总体都满足正态分布。之后检验各个特征中数据的峰度。若峰度≈0,分布的峰态服从正态分布;若峰度>0,分布的峰态陡峭(高尖);若峰度<0,分布的峰态平缓(矮胖)。

for i in feture_list:
    kurtosis = stats.kurtosis(df_train[f'{i}'])
    print(f'the kurtosis value of feture {i} is {kurtosis}')

image.png


根据偏度的检验结果,各特征的数据总体都满足正态分布。采用可视化的方法对于指标的计算结果进行确认,结果如下:

image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


峰度偏矮,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


可视化的检验结果与指标检验结果一致,因此正态分布检验的结论为:各特征数据基本符合正态分布,本文后续不对数据进行正态分布转换处理。

数据集拆分

因为本文的数据来自比赛,因此测试集单独提供,测试集的预测结果作为比赛的评定指标。对于训练集进一步拆分出交叉验证集以判断模型的预测效果,同时确保交叉验证集的数据与训练集数据完全独立:

from sklearn.model_selection import train_test_split
df_train_value, df_vali_value, df_train_target, df_vali_target=train_test_split(df_train_value, df_train_target, test_size=0.25,random_state=1)

拆分完的数据集如下所示:

df_train_value:训练集特征数据集(总数据的75%)

df_train_target:训练集的预测目标数据(总数据的75%)

df_vali_value:交叉验证集特征数据集(总数据的25%)

df_vali_target:交叉验证集的预测目标数据(总数据的25%)

模型训练及检验

对于df_train_value,df_train_target,df_vali_value,df_vali_target的index进行重置,确保所有数据都从第0条开始排序:

df_train_value=df_train_value.reset_index(drop=True)
df_vali_value=df_vali_value.reset_index(drop=True)
df_train_target=df_train_target.reset_index(drop=True)
df_vali_target=df_vali_target.reset_index(drop=True)

对重置完成的各个数据集,将数据转换成矩阵形式供后续使用:

df_train_value=np.array(df_train_value)
df_vali_value=np.array(df_vali_value)
df_train_target=np.array(df_train_target)
df_vali_target=np.array(df_vali_target)

加载验证指标MSE:

from sklearn.metrics import mean_squared_error

算法1:XGBoost

建立模型并进行训练:

import xgboost as xgb
model_xgb=xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='reg:linear')
model_xgb.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_xgb=model_xgb.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_xgb)

在未进行深度调参的情况下,采用XGBoost进行预测得出的MSE为0.128。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_xgb[0:101])

image.png

算法2:GBDT Regression

建立模型并进行训练:

from sklearn.ensemble import GradientBoostingRegressor
model_gbdt=GradientBoostingRegressor(
  loss='ls'
, learning_rate=0.03
, n_estimators=500
, subsample=1
, min_samples_split=2
, min_samples_leaf=1
, max_depth=3
, init=None
, random_state=None
, max_features=None
, alpha=0.9
, verbose=0
, max_leaf_nodes=None
, warm_start=False
)
model_gbdt.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_gbdt=model_gbdt.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_gbdt)

在未进行深度调参的情况下,采用GBDT进行预测得出的MSE为0.13。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_gbdt[0:101])

image.png

算法3:Random Forests

建立模型并进行训练:

from sklearn.ensemble import RandomForestRegressor
model_RF=RandomForestRegressor(n_estimators=200, random_state=0)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_RF=model_RF.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_RF)

在未进行深度调参的情况下,采用Random Forests进行预测得出的MSE为0.123。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_RF[0:101])

image.png

算法4:Bayesian Linear Regression

建立模型并进行训练:

from sklearn import linear_model
model_BR=linear_model.BayesianRidge()
model_BR.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_BR=model_BR.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_BR)

采用Bayesian Linear Regression进行预测得出的MSE为0.125。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_BR[0:101])

image.png

算法5:Linear Regression

建立模型并进行训练:

from sklearn.linear_model import LinearRegression
model_LR=LinearRegression()
model_LR.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_LR=model_LR.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_LR)

采用Linear Regression进行预测得出的MSE为0.125。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_LR[0:101])

image.png

测试集预测

检测测试集状态是否正常:

df_test.head()

image.png

df_test.info()

image.png


将测试集转换为矩阵形式:

df_test=np.array(df_test)

采用MSE指标最低的模型进行预测,这里采用Random Forests算法模型:

predict_test=model_RF.predict(df_test)

制作提交文件完成实验

按提交要求将预测结果predict_test作为新的一列插入测试集zhengqi_test.txt,标签为target:

test_submit=pd.read_csv(r'D:\天池\工业蒸汽量预测\zhengqi_test.txt',sep='\t')
test_submit['target']=predict_test

通过头五组数据查看提交文件的状态:

test_submit.head()

image.png

目录
相关文章
|
3天前
|
存储 安全 Java
系统安全架构的深度解析与实践:Java代码实现
【11月更文挑战第1天】系统安全架构是保护信息系统免受各种威胁和攻击的关键。作为系统架构师,设计一套完善的系统安全架构不仅需要对各种安全威胁有深入理解,还需要熟练掌握各种安全技术和工具。
27 10
|
4天前
|
开发者 Python
探索Python中的装饰器:简化代码,增强功能
【10月更文挑战第22天】在Python的世界里,装饰器是一个强大的工具,它能够让我们以简洁的方式修改函数的行为,增加额外的功能而不需要重写原有代码。本文将带你了解装饰器的基本概念,并通过实例展示如何一步步构建自己的装饰器,从而让你的代码更加高效、易于维护。
|
1天前
|
算法 测试技术 开发者
在Python开发中,性能优化和代码审查至关重要。性能优化通过改进代码结构和算法提高程序运行速度,减少资源消耗
在Python开发中,性能优化和代码审查至关重要。性能优化通过改进代码结构和算法提高程序运行速度,减少资源消耗;代码审查通过检查源代码发现潜在问题,提高代码质量和团队协作效率。本文介绍了一些实用的技巧和工具,帮助开发者提升开发效率。
6 3
|
5天前
|
开发框架 Python
探索Python中的装饰器:简化代码,增强功能
【10月更文挑战第20天】在编程的海洋中,简洁与强大是航行的双桨。Python的装饰器,这一高级特性,恰似海风助力,让代码更优雅、功能更强大。本文将带你领略装饰器的奥秘,从基础概念到实际应用,一步步深入其内涵与意义。
|
2天前
|
测试技术 开发者 Python
深入浅出:Python中的装饰器解析与应用###
【10月更文挑战第22天】 本文将带你走进Python装饰器的世界,揭示其背后的魔法。我们将一起探索装饰器的定义、工作原理、常见用法以及如何自定义装饰器,让你的代码更加简洁高效。无论你是Python新手还是有一定经验的开发者,相信这篇文章都能为你带来新的启发和收获。 ###
6 1
|
2天前
|
设计模式 测试技术 开发者
Python中的装饰器深度解析
【10月更文挑战第24天】在Python的世界中,装饰器是那些能够为函数或类“添彩”的魔法工具。本文将带你深入理解装饰器的概念、工作原理以及如何自定义装饰器,让你的代码更加优雅和高效。
|
3天前
|
前端开发 JavaScript 开发者
揭秘前端高手的秘密武器:深度解析递归组件与动态组件的奥妙,让你代码效率翻倍!
【10月更文挑战第23天】在Web开发中,组件化已成为主流。本文深入探讨了递归组件与动态组件的概念、应用及实现方式。递归组件通过在组件内部调用自身,适用于处理层级结构数据,如菜单和树形控件。动态组件则根据数据变化动态切换组件显示,适用于不同业务逻辑下的组件展示。通过示例,展示了这两种组件的实现方法及其在实际开发中的应用价值。
8 1
|
4天前
|
机器学习/深度学习 缓存 数据挖掘
Python性能优化:提升你的代码效率
【10月更文挑战第22天】 Python性能优化:提升你的代码效率
8 1
|
6天前
|
机器人 Shell Linux
【Azure Bot Service】部署Python ChatBot代码到App Service中
本文介绍了使用Python编写的ChatBot在部署到Azure App Service时遇到的问题及解决方案。主要问题是应用启动失败,错误信息为“Failed to find attribute &#39;app&#39; in &#39;app&#39;”。解决步骤包括:1) 修改`app.py`文件,添加`init_func`函数;2) 配置`config.py`,添加与Azure Bot Service认证相关的配置项;3) 设置App Service的启动命令为`python3 -m aiohttp.web -H 0.0.0.0 -P 8000 app:init_func`。
|
4天前
|
缓存 算法 数据处理
Python性能优化:提升代码效率与速度的秘诀
【10月更文挑战第22天】Python性能优化:提升代码效率与速度的秘诀
8 0

推荐镜像

更多