08 集成学习 - XGBoost概述

简介:

概述

__XGBoost__是GBDT算法的一种变种,是一种常用的有监督集成学习算法;是一种
伸缩性强、便捷的可并行构建模型的Gradient Boosting算法。

__注意:__这里说可以并行构建模型,并不是说XGBoost建立的下一轮基模型不依赖于上一步的结果,而是指生成每个基模型的决策树时,能够快速进行并行运算,即加速了单个模型的运算。

面试中 可能会问为什么XGBoost是一个并行结构?我们可以反驳他说:XGBoost模型本身还是串行的,该模型还是基于梯度提升的理念进行模型构建的。只是在构建每一个模型的时候可以进行并行操作,相对提升一些运行速度。

相关文献

XGBoost官网:http://xgboost.readthedocs.io
XGBoost Github源码位置:https://github.com/dmlc/xgboost
XGBoost支持开发语言:Python、R、Java、Scala、C++

在XGBoost中其实包含了两套不同的API,虽然都在XGBoost包里,两种不同的API拥有两种不同的传输方式。一种是将数据转化成XGBoost认识的DMatrix。第二种兼容了Pthon的接受数据的方式:x_train,y_train。

安装

在Python中集成XGBoost,请参考我写的《安装 xgboost 库


回顾 CART、GBDT
05 决策树 - 生成算法 ID3、C4.5、CART

预测小男孩和老爷爷

__回顾 GBDT算法流程:__最终预测结果=∑ 每棵树上的预测值
小男孩在第1棵树预测结果是2,第2棵树预测结果是0.9,最终预测结果=f(1)+f(2) = 2+0.9;

XGBoost模型-目标函数:
Boosting的模型多少会存在一些过拟合的问题,由于过拟合的存在,对最后的预测结果始终会存在一些错误,即使调参也调不好。所以在建立模型的时候会考虑加上惩罚项。

Obj(θ) 就是我想在第n+1轮构建的目标函数,在原有误差 L(θ) 基础上,增加一个惩罚项 Ω(θ) ; 以上是模型构建的初步思路,具体惩罚项加的是什么?后续再考虑。

XGBoost 目标函数

回顾 过拟合和欠拟合的概念:
06 回归算法 - 损失函数、过拟合欠拟合

过拟合和欠拟合

GBDT目标函数 - y^
通过加入基模型,下图引用自一篇陈天奇的论文,其中用__f(x)表示基模型__,我们之前讲GDBT章节的时候用的符合是h(x);注意一下即可。

一步一步得预测,最后得到第t步的预测结果。

GBDT在每一轮迭代过程中,使得预测值和损失值的误差和达到最小,即完成了最优模型的构建。 obj=∑ L(y,y^) ;

GBDT目标函数

XGBoost的目标函数 - y^
XGBoost做了一个更新,从下图可以看到,左边这部分提升算法的模型的步骤没有变化。但提升算法中基模型f(x)的值怎么去计算发生了变化。
即最终的预测模型怎么得到发生了变化,最优解y^对应的损失函数obj在GBDT的损失函数obj基础上,我们增加的惩罚项来控制基模型的复杂度。

至此我们构建了新的损失函数obj作为XGBoost的损失函数:

XGBoost的目标函数

q(x)是啥? 回顾上面小男孩、老爷爷的那张图。
x是小男孩、小姑娘、老爷爷。__q(x)是落入当前模型的叶子节点编号。__
看下图左边这棵树:q(小男孩) = 1,小男孩的观测值落入了当前叶子节点编号1。同理,得到其他的q(x)值。

对于左边这棵树,__w1__ 是第一个叶子节点的预测值 = 小男孩;
ft(x) = wq(x)

最后分析针对第t棵树的惩罚项:Ω(ft) = γTt + 0.5λ∑wj2 其中 j=(1,2,3...T)
Tt代表第t棵树叶子节点个数,γ、λ即超参数。∑wj2 代表第t棵树叶子节点预测值的平方和。这个思想和构建L2正则比较像,08 回归算法 - 解决过拟合 - L2(Ridge)和L1(LASSO)正则

根据上面的知识对XGBoost公式推导

第t次迭代后,模型的预测值= t-1次模型的预测值+第t棵树的预测值。

目标函数可以写成:

回顾泰勒公式:

泰勒公式

将误差函数在yi^(t-1) 处进行二阶泰勒展开。即对原损失函数进行展开,yi是定值,y^t是变化量,即泰勒公式中的Δx。
然后将yit展开: yit = L( y^ it-1 + ft(x))

原始损失函数左,转化为右边的公式,再做泰勒展开

相关文章
|
1月前
|
测试技术
软件质量保护与测试(第2版)学习总结第十三章 集成测试
本文是《软件质量保护与测试》(第2版)第十三章的学习总结,介绍了集成测试的概念、主要任务、测试层次与原则,以及集成测试的不同策略,包括非渐增式集成和渐增式集成(自顶向下和自底向上),并通过图示详细解释了集成测试的过程。
57 1
软件质量保护与测试(第2版)学习总结第十三章 集成测试
|
1月前
|
前端开发 Java 程序员
springboot 学习十五:Spring Boot 优雅的集成Swagger2、Knife4j
这篇文章是关于如何在Spring Boot项目中集成Swagger2和Knife4j来生成和美化API接口文档的详细教程。
84 1
|
1月前
|
Java Spring
springboot 学习十一:Spring Boot 优雅的集成 Lombok
这篇文章是关于如何在Spring Boot项目中集成Lombok,以简化JavaBean的编写,避免冗余代码,并提供了相关的配置步骤和常用注解的介绍。
88 0
|
1月前
|
机器学习/深度学习 算法 前端开发
集成学习任务七和八、投票法与bagging学习
集成学习任务七和八、投票法与bagging学习
15 0
|
1月前
|
机器学习/深度学习 算法
【机器学习】迅速了解什么是集成学习
【机器学习】迅速了解什么是集成学习
|
3月前
|
机器学习/深度学习 运维 算法
【阿里天池-医学影像报告异常检测】3 机器学习模型训练及集成学习Baseline开源
本文介绍了一个基于XGBoost、LightGBM和逻辑回归的集成学习模型,用于医学影像报告异常检测任务,并公开了达到0.83+准确率的基线代码。
65 9
|
3月前
|
人工智能
LLama+Mistral+…+Yi=? 免训练异构大模型集成学习框架DeePEn来了
【8月更文挑战第6天】DeePEn是一种免训练异构大模型集成学习框架,旨在通过融合多个不同架构和参数的大模型输出概率分布,提升整体性能。它首先将各模型输出映射至统一概率空间,然后进行聚合,并最终反转回单一模型空间以生成输出。实验证明,在知识问答和推理任务上,DeePEn相比单一大模型如LLaMA和Mistral有显著提升,但其效果受模型质量和数量影响,并且计算成本较高。[论文: https://arxiv.org/abs/2404.12715]
44 1
|
3月前
|
机器学习/深度学习
【机器学习】模型融合Ensemble和集成学习Stacking的实现
文章介绍了使用mlxtend和lightgbm库中的分类器,如EnsembleVoteClassifier和StackingClassifier,以及sklearn库中的SVC、KNeighborsClassifier等进行模型集成的方法。
54 1
|
4月前
|
机器学习/深度学习 算法 前端开发
集成学习的力量:Sklearn中的随机森林与梯度提升详解
【7月更文第23天】集成学习,作为机器学习中一种强大而灵活的技术,通过结合多个基础模型的预测来提高整体预测性能。在`scikit-learn`(简称sklearn)这一Python机器学习库中,随机森林(Random Forest)和梯度提升(Gradient Boosting)是两种非常流行的集成学习方法。本文将深入解析这两种方法的工作原理,并通过代码示例展示它们在sklearn中的应用。
182 10
|
4月前
|
机器学习/深度学习 算法 前端开发
集成学习(Ensemble Learning)是一种机器学习技术,它通过将多个学习器(或称为“基学习器”、“弱学习器”)的预测结果结合起来,以提高整体预测性能。
集成学习(Ensemble Learning)是一种机器学习技术,它通过将多个学习器(或称为“基学习器”、“弱学习器”)的预测结果结合起来,以提高整体预测性能。