梯度提升树GBDT

简介:   上一节我们讲了AdaBoost,而提升树也是提升方法的一种,它的基分类器为分类树或者回归树。(ps:首先我们讲一下残差的概念:残差是指实际值和估计值之间的差,就是相减。

  上一节我们讲了AdaBoost,而提升树也是提升方法的一种,它的基分类器为分类树或者回归树。(ps:首先我们讲一下残差的概念:残差是指实际值和估计值之间的差,就是相减。)一般提升树的模型的损失函数是平方损失和对数损失,所以优化很简单。但是对一般损失函数而言就有困难,所以又有了梯度提升算法,然后一结合成了梯度提升树(GBDT)。
  首先将一下什么是提升树。我们知道所谓的提升算法其实就是加法模型加上前向分布算法,李航的那本书有证明。所以,我们将基分类器换成树模型的时候,提升方法就变成了提升树。一般的前向分布算法的描述如下:


img_bc91d2a128d516369d2b90e0bb2672c4.png

  提升树算法就是将基分类器换成了树,每一个新的分类器是为了拟合残差,而GDBT只不过将损失函数的负梯度在当前模型的值作为回归问题提升树算法中的残差的近似值,拟合一个回归树。(分类树也是同样的道理)
  算法描述如下:


img_1194150429ac8ff5b870ee7c4cf1dae7.jpe

img_093a6c6b059cfafa927feba8c3614ddd.jpe
目录
相关文章
|
4月前
|
机器学习/深度学习 数据采集 算法
Python实现GBDT(梯度提升树)回归模型(GradientBoostingRegressor算法)项目实战
Python实现GBDT(梯度提升树)回归模型(GradientBoostingRegressor算法)项目实战
149 6
|
5月前
|
机器学习/深度学习 算法
梯度提升树GBDT系列算法
在Boosting集成算法当中,我们逐一建立多个弱评估器(基本是决策树),并且下一个弱评估器的建立方式依赖于上一个弱评估器的评估结果,最终综合多个弱评估器的结果进行输出。
|
5月前
|
机器学习/深度学习 算法 计算机视觉
【YOLOv8改进-损失函数】SlideLoss损失函数,解决样本不平衡问题
YOLO-FaceV2是基于YOLOv5的实时人脸检测模型,采用RFE模块增强小人脸检测,NWD损失处理定位偏差,SEAM注意力模块应对遮挡,Slide Loss解决样本不平衡,提升对难样本的关注。在WiderFace数据集上超越YOLO系列。论文和代码已公开。Slide Loss通过IoU加权,优化边界样本,提高模型性能。
|
6月前
|
机器学习/深度学习 算法 数据可视化
样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化
样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化
|
6月前
|
机器学习/深度学习 算法 索引
R语言基于树的方法:决策树,随机森林,Bagging,增强树
R语言基于树的方法:决策树,随机森林,Bagging,增强树
|
存储 机器学习/深度学习 负载均衡
使用梯度提升树算法进行CTR预测
使用梯度提升树算法进行CTR预测
431 0
|
移动开发 算法
提升树与梯度提升树 Boosting Tree & Gradient Boosting Decision Tree(GBDT)
提升树与梯度提升树 Boosting Tree & Gradient Boosting Decision Tree(GBDT)
|
机器学习/深度学习 算法
|
机器学习/深度学习 存储 搜索推荐
【树模型与集成学习】(task6)梯度提升树GBDT+LR
协同过滤和矩阵分解存在的劣势就是仅利用了用户与物品相互行为信息进行推荐, 忽视了用户自身特征, 物品自身特征以及上下文信息等,导致生成的结果往往会比较片面。
382 0
【树模型与集成学习】(task6)梯度提升树GBDT+LR
|
机器学习/深度学习 算法 数据挖掘
决策树学习笔记(二):剪枝,ID3,C4.5
本篇为树模型系列第二篇,旨在从最简单的决策树开始学习,循序渐进,最后理解并掌握复杂模型GBDT,Xgboost,为要想要深入了解机器学习算法和参加数据挖掘竞赛的朋友提供帮助。
决策树学习笔记(二):剪枝,ID3,C4.5