开发者社区> 朱祺> 正文

工业蒸汽量预测比赛全流程解析(附详细Python代码)

简介: 本文所采用的数据集来自于阿里云天池比赛,描述了整个数据挖掘的过程及详细代码,共尝试了5套机器学习算法
+关注继续查看

采用的数据集情况

本文所采用的数据集来自于阿里云天池比赛,比赛的链接地址为:阿里云天池工业蒸汽量预测比赛链接
其中所下载的数据集包括两个txt文件:zhengqi_train.txt(训练集)和zhengqi_test.txt(测试集)

数据导入

因本文的主要目的是以介绍整个挖掘流程为主,因此采用根据需要逐步导入所需要的库的形式,以下先导入numpy和pandas两个库。

import numpy as np
import pandas as pd

使用pandas导入已经预先下载并存放在本地的训练集和测试集,结合本次的数据集为txt文件,并且数据之间的分隔符为'\t',因此导入文件的代码如下:

df_train=pd.read_csv(r'D:\zhengqi\zhengqi_train.txt',sep='\t')
df_test=pd.read_csv(r'D:\zhengqi\zhengqi_test.txt',sep='\t')

数据概览

使用head查看训练集和测试集前5条数据的情况:

df_train.head()

image.png

从图中可以看到,训练集总共有39列,其中包括V0至V37共38个特征,target为本次的预测标签值。

df_test.head()

image.png

测试集总共有38列,其中包括V0至V37共38个特征,没有target,本次的预测就是需要根据训练完成的模型,提交测试集的target值。

使用info查看训练集和测试集的整体情况如下:

df_train.info()

image.png


image.png


可以看到,训练集的数据总数为2888条,因为Python默认的index排序是从0开始,所以index显示为0至2887条。non-null代表数据中没有缺失值,因此不需要对于数据进行缺失值填充;float64(39)代表39列数据全部为浮点形式数值数据,不需要进行格式上的转换。

df_test.info()

image.png


image.png


测试集的数据总数为1925条,index序号为0至1924条。测试集中的数据同样没有缺失值;float64(38)代表38列数据全部为浮点形式数值数据,不需要进行格式上的转换。因此,训练集数据的总体情况和测试集数据是一致的。

特征工程

加载接下去要使用的两个库,matplotlib和seaborn都是Python中常用的可视化工具库。

import matplotlib.pyplot as plt
import seaborn as sns

用以下代码提取出训练集中所有的特征标签,方便之后使用:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

feature_list即特征标签列表如下:

['V0','V1','V2','V3','V4','V5','V6','V7','V8','V9','V10','V11','V12','V13','V14','V15','V16','V17', 'V18', 'V19', 'V20', 'V21', 'V22', 'V23', 'V24','V25', 'V26', 'V27', 'V28', 'V29', 'V30', 'V31',
'V32', 'V33', 'V34', 'V35', 'V36', 'V37']

数据分布情况核实

首先需要核实的是训练集的各特征数据分布情况是否和测试集一致,当两者出现较大差异时,将会导致模型失效的情况,可视化对比过程如以下代码所示:

#对于特征标签列表feature_list中的特征标签进行操作,逐个绘制单变量数据
分布图,训练集和测试集的相同特征分布情况绘制在同一张图上以方便比对
for i in feature_list:
    sns.distplot(df_train[{i}])
    sns.distplot(df_test[{i}])
    plt.title(i)
    plt.show()

对于特征数较多的数据集,采用subplot方式绘制各类图是更好的选择,本文因为特征数并不算太多,为了更清晰的进行可视化展现,采用了一个for循环进行逐幅绘制的方式。

从V0到V37,总共生成了38幅单变量数据分布图,其中蓝色的是某特征训练集的数据分布情况,黄色的是测试集的数据分布情况。根据这38幅图,可以判断训练集和测试集各个特征的数据分布是否一致。以下选取典型的4幅作说明:

image.png


训练集和测试集的V0特征数据分布一致


image.png


训练集和测试集的V1特征数据分布一致


image.png


训练集和测试集的V5特征数据分布不一致


image.png


训练集和测试集的V17特征数据分布不一致


理想状态下,针对同一特征,训练集的数据分布曲线应该和测试集的数据分布曲线完全一致,但是这在实际过程中并不多见。如V0和V1两个特征的分布图可以发现,虽然训练集和测试集的数据分布情况略有差异,但仍然可以认为是分布情况一致的。而V5和V17特征图清晰的反映了数据分布不一致的情况。

同时在训练集和测试集中将数据分布不一致的特征去除,代码如下:

df_train=df_train[['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36','target']]
df_test=df_test[['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36']]

因为训练集和测试集的特征经过了筛选都发生了变化,为了方便之后的操作,重新提取出训练集中所有的特征标签,更新特征标签列表feature_list:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

更新后的特征标签列表feature_list如下:

['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36']

相关性分析

对于训练集进行相关性分析,所采用的方法为计算皮尔逊相关系数,Python中可以直接在数据集上采用corr的方法,默认的相关系数计算方式就是皮尔逊相关系数。

df_train.corr()

image.png


本文的案例我们只分析各特征标签与预测标签(target)之间的相关性,查看上表的最后一列相关系数计算结果,相关系数的绝对值大于0.5的为强相关性,小于0.5的为弱相关性,0附近的为没有相关性,系数为正代表正相关,系数为负代表负相关。

以可视化方法绘制特征标签与预测标签(target)的散点图,与相关系数的计算结果进行相互校对:

for i in feture_list:
    sns.scatterplot(df_train[f'{i}'],df_train['target'])
    plt.show()

在生成的所有散点图中挑选几幅典型的图来说明不同的相关系数下,散点图的大致形状:

image.png


相关系数0.87,强相关性


image.png


相关系数0.87,强相关性


image.png


相关系数0.6,强相关性


image.png


相关系数0.15,无相关性


image.png


相关系数0.17,无相关性


以0.5为界限,同时在训练集和测试集中去除相关系数绝对值低于0.5的特征,确保被输入模型进行训练的特征与预测目标值有较强的相关性。

df_train=df_train[['V0','V1','V3','V4','V8','V12','V16','V31','target']]
df_test=df_test[['V0','V1','V3','V4','V8','V12','V16','V31']]

因训练集和测试集的特征再次经过筛选,因此再次更新特征标签列表feature_list:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

更新后的特征标签列表feature_list如下:

['V0','V1','V3','V4','V8','V12','V16','V31']

正态分布检验

对于完成进一步筛选的数据集做正态分布检验,以确定是否需要进一步将数据尽可能转换成正态分布的形式,本文同样同时采用指标计算的方法和可视化的方法来同时进行正态分布检验。

导入正态分布检验所需要用到的库:

from scipy import stats

首先检验各个特征中数据的偏度,偏度定义中包括正态分布(偏度=0),右偏分布(也叫正偏分布,其偏度>0),左偏分布(也叫负偏分布,其偏度<0)。

for i in feture_list:
    skew = stats.skew(df_train[f'{i}'])
    print(f'the skew value of feture {i} is {skew}')

image.png


根据偏度的检验结果,各个特征的数据都为左偏,但是总体都满足正态分布。之后检验各个特征中数据的峰度。若峰度≈0,分布的峰态服从正态分布;若峰度>0,分布的峰态陡峭(高尖);若峰度<0,分布的峰态平缓(矮胖)。

for i in feture_list:
    kurtosis = stats.kurtosis(df_train[f'{i}'])
    print(f'the kurtosis value of feture {i} is {kurtosis}')

image.png


根据偏度的检验结果,各特征的数据总体都满足正态分布。采用可视化的方法对于指标的计算结果进行确认,结果如下:

image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


峰度偏矮,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


可视化的检验结果与指标检验结果一致,因此正态分布检验的结论为:各特征数据基本符合正态分布,本文后续不对数据进行正态分布转换处理。

数据集拆分

因为本文的数据来自比赛,因此测试集单独提供,测试集的预测结果作为比赛的评定指标。对于训练集进一步拆分出交叉验证集以判断模型的预测效果,同时确保交叉验证集的数据与训练集数据完全独立:

from sklearn.model_selection import train_test_split
df_train_value, df_vali_value, df_train_target, df_vali_target=train_test_split(df_train_value, df_train_target, test_size=0.25,random_state=1)

拆分完的数据集如下所示:

df_train_value:训练集特征数据集(总数据的75%)

df_train_target:训练集的预测目标数据(总数据的75%)

df_vali_value:交叉验证集特征数据集(总数据的25%)

df_vali_target:交叉验证集的预测目标数据(总数据的25%)

模型训练及检验

对于df_train_value,df_train_target,df_vali_value,df_vali_target的index进行重置,确保所有数据都从第0条开始排序:

df_train_value=df_train_value.reset_index(drop=True)
df_vali_value=df_vali_value.reset_index(drop=True)
df_train_target=df_train_target.reset_index(drop=True)
df_vali_target=df_vali_target.reset_index(drop=True)

对重置完成的各个数据集,将数据转换成矩阵形式供后续使用:

df_train_value=np.array(df_train_value)
df_vali_value=np.array(df_vali_value)
df_train_target=np.array(df_train_target)
df_vali_target=np.array(df_vali_target)

加载验证指标MSE:

from sklearn.metrics import mean_squared_error

算法1:XGBoost

建立模型并进行训练:

import xgboost as xgb
model_xgb=xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='reg:linear')
model_xgb.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_xgb=model_xgb.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_xgb)

在未进行深度调参的情况下,采用XGBoost进行预测得出的MSE为0.128。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_xgb[0:101])

image.png

算法2:GBDT Regression

建立模型并进行训练:

from sklearn.ensemble import GradientBoostingRegressor
model_gbdt=GradientBoostingRegressor(
  loss='ls'
, learning_rate=0.03
, n_estimators=500
, subsample=1
, min_samples_split=2
, min_samples_leaf=1
, max_depth=3
, init=None
, random_state=None
, max_features=None
, alpha=0.9
, verbose=0
, max_leaf_nodes=None
, warm_start=False
)
model_gbdt.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_gbdt=model_gbdt.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_gbdt)

在未进行深度调参的情况下,采用GBDT进行预测得出的MSE为0.13。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_gbdt[0:101])

image.png

算法3:Random Forests

建立模型并进行训练:

from sklearn.ensemble import RandomForestRegressor
model_RF=RandomForestRegressor(n_estimators=200, random_state=0)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_RF=model_RF.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_RF)

在未进行深度调参的情况下,采用Random Forests进行预测得出的MSE为0.123。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_RF[0:101])

image.png

算法4:Bayesian Linear Regression

建立模型并进行训练:

from sklearn import linear_model
model_BR=linear_model.BayesianRidge()
model_BR.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_BR=model_BR.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_BR)

采用Bayesian Linear Regression进行预测得出的MSE为0.125。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_BR[0:101])

image.png

算法5:Linear Regression

建立模型并进行训练:

from sklearn.linear_model import LinearRegression
model_LR=LinearRegression()
model_LR.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_LR=model_LR.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_LR)

采用Linear Regression进行预测得出的MSE为0.125。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_LR[0:101])

image.png

测试集预测

检测测试集状态是否正常:

df_test.head()

image.png

df_test.info()

image.png


将测试集转换为矩阵形式:

df_test=np.array(df_test)

采用MSE指标最低的模型进行预测,这里采用Random Forests算法模型:

predict_test=model_RF.predict(df_test)

制作提交文件完成实验

按提交要求将预测结果predict_test作为新的一列插入测试集zhengqi_test.txt,标签为target:

test_submit=pd.read_csv(r'D:\天池\工业蒸汽量预测\zhengqi_test.txt',sep='\t')
test_submit['target']=predict_test

通过头五组数据查看提交文件的状态:

test_submit.head()

image.png

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
Python静态类型解析工具简介和实践
Python是一门强类型的动态类型语言,开发者可以给对象动态指定类型,但类型不匹配的操作是不被允许的。动态类型帮助开发者写代码轻松愉快,然而,俗话说:动态一时爽,重构火葬场。动态类型也带来了许多麻烦,如果动态语言能加入静态类型标记的话,会有什么好处呢?本文将主要介绍Python对静态类型的支持、社区发展的现状、类型检查工具介绍与对比,以及类型解析的实战。
3570 0
【Python编程基础】控制流之 if else
【Python编程基础】控制流之 if else
56 0
怎么设置阿里云服务器安全组?阿里云安全组规则详细解说
阿里云服务器安全组设置规则分享,阿里云服务器安全组如何放行端口设置教程
10082 0
tensorflow笔记:流程,概念和简单代码注释
1.tensorflow的运行流程 tensorflow的运行流程主要有2步,分别是构造模型和训练。 在构造模型阶段,我们需要构建一个图(Graph)来描述我们的模型。所谓图,也可以理解为流程图,就是将数据的输入->中间处理->输出的过程表示出来,就像下面这样。
1531 0
[Android]Android焦点流程代码分析
以下内容为原创,欢迎转载,转载请注明 来自天天博客:http://www.cnblogs.com/tiantianbyconan/p/7286503.html 通过View的View::focusSearch进行焦点搜索对应方向上的下一个可以获取焦点的View: public View focus...
1062 0
+关注
朱祺
阿里云全球MVP(最有价值专家) 阿里云计算ACP 阿里大数据ACP
63
文章
12
问答
来源圈子
更多
阿里云最有价值专家,简称 MVP(Most Valuable Professional),是专注于帮助他人充分了解和使用阿里云技术的意见领袖阿里云 MVP 奖项为我们提供了这样一个机会,向杰出的意见领袖表示感谢,更希望通过 MVP 将开发者的声音反映到我们的技术路线图上。
+ 订阅
文章排行榜
最热
最新
相关电子书
更多
OceanBase 入门到实战教程
立即下载
阿里云图数据库GDB,加速开启“图智”未来.ppt
立即下载
实时数仓Hologres技术实战一本通2.0版(下)
立即下载