第113天: Python XGBoost 算法项目实战

简介: 第113天: Python XGBoost 算法项目实战

Python 实现机器学习


如果你的机器学习预测模型表现得不尽如人意,那就用XGBoost。XGBoost算法现在已经成为很多数据工程师的重要武器。


XGBoost 算法


说到XGBoost,不得不提GBDT(Gradient Boosting Decision Tree)。


因为XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致,所以叫X (Extreme) GBoosted。


包括前面说过,两者都是boosting方法。XGBoost高效地实现了GBDT算法并进行了算法和工程上的许多改进,被广泛应用在Kaggle竞赛及其他许多机器学习竞赛中并取得了不错的成绩。


这一篇最适合刚刚接触XGBoost的人阅读,通过一个实战项目拆解整个XGBoost算法。

对于第71天爬取到的数据如下:(作为训练集FBP_train.csv) ID列为每一场比赛,从0或1开始递增,ysb、li等代表易胜博、立博等公司的初始主队获胜赔率,最后一列y代表比赛结果,1代表主队获胜,2代表主队不胜。


以下代码构造训练集,爬取新的预测集放到FBP_predict.csv



trainFilePath = 'E:/PythonLearn/pc_ex/AdaBoost_PeiLv/FBP_train.csv'    testFilePath = 'E:/PythonLearn/pc_ex/AdaBoost_PeiLv/FBP_predict.csv'    data = pd.read_csv(trainFilePath)    X_test= pd.read_csv(testFilePath)###############第二处调参:选择全部特征还是部分特征###########################    X_train=data[[f0,f1,f2,f3,f4,f5,f6,f7,f8,f9,f10]]#全特征    y_train=data['y']    trainandTest(X_train, y_train,X_test)


将数据加载到对应变量后通过参数传递给trainandTest函数:其中train_test_split函数是sklearn.cross_validation模块中用来按比例划分训练集和测试集,第一个参数X是被划分的样本特征集;


第二个参数y是被划分的样本标签;


第三个参数test_size是样本占比;


第四个参数是随机数的种子,其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。


但填0或不填,每次都会不一样。随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。


model=XGBClassifier()为 XGBoost训练过程。此处用无参数的函数。当然也可以自己手动调整里边的参数,但需多次回测才能调整最优参数,建议用无参数的XGBClassifier方法让系统自己选择最优参数。


def trainandTest(X, y,X_t):    X_train, X_test, y_train, y_test=train_test_split(X, y, test_size=0.33, random_state=7)       #####特征向量化############    vec=DictVectorizer(sparse=False)    ###########归一化和标准化#################    X_train=vec.fit_transform(X_train.to_dict(orient='record'))    X_test=vec.transform(X_t.to_dict(orient='record'))    model=XGBClassifier()#无参数    model.fit(X_train,y_train)    # 对测试集进行预测    ans = model.predict(X_test)    ans_len = len(ans)    id_list = np.arange(5953, 5956)    data_arr = []    for row in range(0, ans_len):        data_arr.append([int(id_list[row]), ans[row]])        print(ans[row])    np_data = np.array(data_arr)    # 写入文件    pd_data = pd.DataFrame(np_data, columns=['id', 'y'])    pd_data.to_csv('FBP_submit.csv', index=None)    plot_importance(model)


首先通过train_test_split函数按照33%的比例分割训练集X和对应的结果标签y,得到新的训练集X_train和对应的结果标签y_train;


再经过DictVectorizer将赔率特征转化为向量形式,再经过fit_transform可以理解为先fit拟合后transform标准化,同理对预测集X_t也进行拟合-标准化。


这时就可以新建模型model了,按照拟合标准化后的X_train训练集进行进一步拟合模型,用此模型对标准化的预测集进行预测了。


将返回的预测结果存到列表data_arr,再通过DataFrame存到CSV文件中。


此外通过plot_importance(model)绘制特征重要性。一个已训练的xgboost模型能够自动计算特征重要性,这些重要性得分可以通过成员变量feature_importances_得到。


梯度提升算法是如何计算特征重要性的?使用梯度提升算法的好处是在提升树被创建后,可以相对直接地得到每个属性的重要性得分。


一般来说,重要性分数,衡量了特征在模型中的提升决策树构建中价值。一个属性越多的被用来在模型中构建决策树,它的重要性就相对越高。


属性重要性是通过对数据集中的每个属性进行计算,并进行排序得到。在单个决策书中通过每个属性分裂点改进性能度量的量来计算属性重要性,由节点负责加权和记录次数。

也就说一个属性对分裂点改进性能度量越大(越靠近根节点),权值越大;被越多提升树所选择,属性越重要。


性能度量可以是选择分裂节点的Gini纯度,也可以是其他度量函数。最终将一个属性在所有提升树中的结果进行加权求和后然后平均,得到重要性得分。


注:(github.com.cn/acredjb/FBP有完整机器学习源码)


以上对XGBoost算法在实际一个项目上做了应用分析,接下来从宏观层面介绍一下另外两个算法AdaBoost和GBDT算法。


首先作为一种常用的统计学习方法,提升方法是将多个弱学习器提升(boost)为一个强学习器的算法。


其工作机制是通过一个弱学习算法,从初始训练集中训练出一个弱学习器,再根据弱学习器的表现对训练样本分布进行调整,


使得先前弱学习器做错的训练样本在后续受到更多的关注,然后基于调整后的样本分布来训练下一个弱学习器。


如此反复学习 ,得到一系列的弱学习器,然后 组合这些弱学习器,构成一个强学习器。

提升方法生成的弱学习器之间存在强依赖关系,必须串行生成一系列的弱学习器。


目前提升方法主要有 AdaBoost,GBDT,XGBoost等算法。而通常我们所知的Bagging,随机森林等算法生成的弱学习器之间不存在强依赖关系,可同时生成并行化的方法。


AdaBoost 算法


通常对提升方法来说,有两个问题需要回答:一是如何在每一轮改变训练样本的分布,二是如何将弱分类器组合成一个强分类器。


对于第一个问题,AdaBoost算法的做法是提高被前一轮弱分类器错误分类样本的权值,而降低被正确分类样本的权值。


这样,没有得到正确分类的数据由于权值被加大而受到后轮的弱分类器更大关注。


对于第二个问题,AdaBoost算法的做法是AdaBoosting采取 加权多数表决的方法。


具体就是加大分类误差小的弱分类器的权值,使其在表决中起较大的作用,减小分类误差率大的弱分类器的权值。


GBDT 梯度提升树


对于提升树,当损失函数是平方误差损失函数和指数损失函数时,每一步优化比较简单,但是对于一般损失函数,往往每一步优化没那么容易。


通常优化损失函数,是希望损失函数能够不断的减小,而且是损失函数能够尽可能快的减小。每轮迭代的时候,都去拟合损失函数在当前模型下的负梯度。



这样每轮训练的时候都能够让损失函数尽可能快的减小,尽快的收敛达到局部最优解或者全局最优解。


Adaboost 与 GBDT 算法比较


Adaboost算法的模型是一个弱学习器线性组合,特点是通过迭代,每一轮学习一个弱学习器,在每次迭代中,提高那些被前一轮分类器错误分类的数据的权值,降低正确分类的数据的权值。


最后,将弱分类器的线性组合作为强分类器,给分类误差小的基本分类器大的权值。每一次迭代都可以减少在训练集上的分类误差率。


AdaBoost能够有效的降低偏差,能够在泛化性能非常弱的学习器上构建成很强的集成。缺点是对噪声敏感。


GBDT与Adaboost的主要差别为,Adaboost每轮学习的一个基本学习器是通过改变样本的权值,关注上轮分类错误的样本的权值,以逐步减少在训练集上的分类误差率。


而GBDT每轮学习一个基本学习器是通过改变输出值,每轮拟合的值为真实值与已有的加法模型的差值(即残差)。


GBDT无论是进行分类还是回归问题,都用的CART树。对于分类问题用二叉分类树,回归问题用二叉回归树。


GBDT 与 XGboost 比较


传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。xgboost工具支持自定义代价函数,只要函数可一阶和二阶求导。


Xgboost在代价函数里加入了正则项,用于控制模型的复杂度。正则项里包含了树的叶子节点个数、每个叶子节点上输出的score的L2模的平方和。


从Bias-variance tradeoff角度来讲,正则项降低了模型variance,使学习出来的模型更加简单,防止过拟合,这也是xgboost优于传统GBDT的一个特性。


正则化包括了两个部分,都是为了防止过拟合,剪枝是都有的,叶子结点输出L2平滑是新增的。还可以进行列抽样,从而降低过拟合的风险。


XGboost可进行并行计算,但是这种并行计算并不是像随机森林那样是在tree粒度上去进行,而是在特征粒度上并行。


总结


我们以一个实战项目为依托,从零开始,深入浅出,让读者能够实践Python机器学习的整个过程,此外介绍了AdaBoost,GBDT,XGBoost等算法并对之进行了详细比较。


代码地址

示例代码:https://github.com/JustDoPython/python-100-day/tree/master/day-113

系列文章

 第 112 天:机器学习算法之蒙特卡洛

 第 111 天:Python 垃圾回收机制

从 0 学习 Python 0 - 110 大合集总结

目录
相关文章
|
5天前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
111 55
|
21天前
|
搜索推荐 Python
利用Python内置函数实现的冒泡排序算法
在上述代码中,`bubble_sort` 函数接受一个列表 `arr` 作为输入。通过两层循环,外层循环控制排序的轮数,内层循环用于比较相邻的元素并进行交换。如果前一个元素大于后一个元素,就将它们交换位置。
124 67
|
21天前
|
存储 搜索推荐 Python
用 Python 实现快速排序算法。
快速排序的平均时间复杂度为$O(nlogn)$,空间复杂度为$O(logn)$。它在大多数情况下表现良好,但在某些特殊情况下可能会退化为最坏情况,时间复杂度为$O(n^2)$。你可以根据实际需求对代码进行调整和修改,或者尝试使用其他优化策略来提高快速排序的性能
115 61
|
15天前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
96 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
3天前
|
算法
PAI下面的gbdt、xgboost、ps-smart 算法如何优化?
设置gbdt 、xgboost等算法的样本和特征的采样率
16 2
|
21天前
|
存储 算法 搜索推荐
Python 中数据结构和算法的关系
数据结构是算法的载体,算法是对数据结构的操作和运用。它们共同构成了计算机程序的核心,对于提高程序的质量和性能具有至关重要的作用
|
21天前
|
数据采集 存储 算法
Python 中的数据结构和算法优化策略
Python中的数据结构和算法如何进行优化?
|
15天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
21天前
|
机器学习/深度学习 算法 Serverless
基于WOA-SVM的乳腺癌数据分类识别算法matlab仿真,对比BP神经网络和SVM
本项目利用鲸鱼优化算法(WOA)优化支持向量机(SVM)参数,针对乳腺癌早期诊断问题,通过MATLAB 2022a实现。核心代码包括参数初始化、目标函数计算、位置更新等步骤,并附有详细中文注释及操作视频。实验结果显示,WOA-SVM在提高分类精度和泛化能力方面表现出色,为乳腺癌的早期诊断提供了有效的技术支持。
|
1天前
|
供应链 算法 调度
排队算法的matlab仿真,带GUI界面
该程序使用MATLAB 2022A版本实现排队算法的仿真,并带有GUI界面。程序支持单队列单服务台、单队列多服务台和多队列多服务台三种排队方式。核心函数`func_mms2`通过模拟到达时间和服务时间,计算阻塞率和利用率。排队论研究系统中顾客和服务台的交互行为,广泛应用于通信网络、生产调度和服务行业等领域,旨在优化系统性能,减少等待时间,提高资源利用率。
下一篇
DataWorks