机器学习算法之——梯度提升(Gradient Boosting)下

简介: GDBT本身并不复杂,不过要吃透的话需要对集成学习的原理、策树原理和各种损失函树有一定的了解。由于GBDT的卓越性能,只要是研究机器学习都应该掌握这个算法,包括背后的原理和应用调参方法。目前GBDT的算法比较好的库是xgboost。当然scikit-learn也可以。

请接上文看,也可独立阅读GBDT(Gradient Boosting Decision Tree)部分,梯度提升方法和GBDT算法。


三、集成学习


1. 概述


GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在提出之初就和SVM一起被认为是泛化能力(generalization)较强的算法。GBDT的思想使其具有天然优势可以发现多种有区分性的特征以及特征组合。


GBDT主要由三个概念组成:Regression Decision Tree(即DT)、Gradient Boosting(即GB)、Shrinkage(算法的一个重要演进分支,目前大部分源码都按该版本实现)。理解这三个概念后就能明白GBDT是如何工作。


2. DT(Regression Decision Tree回归树)


提到决策树(DT, Decision Tree),绝大部分人首先想到的就是C4.5分类决策树。但如果一开始就把GBDT中的树想成分类树,那就是一条歪路走到黑,千万不要以为GBDT是很多棵分类树。决策树分为两大类,回归树和分类树。前者用于预测实数值,如明天的温度、用户的年龄、网页的相关程度;后者用于分类标签值,如晴天/阴天/雾/雨、用户性别、网页是否是垃圾页面。这里要强调的是,前者的结果加减是有意义的,如10岁+5岁-3岁=12岁;后者则无意义,如男+男+女=男还是女?GBDT的核心在于累加 所有树的结果作为最终结果,而分类树的结果显然是无法累加的。所以GBDT中的树都是回归树,不是分类树,这点对理解GBDT相当重要,尽管GBDT调整后也可用于分类,但不代表GBDT的树是分类树。


下面以对人的性别判别/年龄预测为例来说明,每个实例都是一个已知性别/年龄的人,而特征则包括这个人上网的时长、上网的时段、网购所花的金额等。


作为对比,先说分类树。我们知道C4.5分类树在每次分支时,是穷举每一个feature的每一个阈值,找到使得按照feature<=阈值和feature>阈值分成的两个分支的熵最大的feature和阈值,按照该标准分支得到两个新节点,用同样方法继续分支直到所有人都被分入性别唯一的叶子节点,或达到预设的终止条件,若最终叶子节点中的性别不唯一,则以多数人的性别作为该叶子节点的性别。


回归树总体流程也是类似,不过在每个节点(不一定是叶子节点)都会得到一个预测值。以年龄为例,该预测值等于属于这个节点的所有人年龄的平均值。分支时穷举每一个feature的每个阈值找最好的分割点,但衡量最好的标准不再是最大熵,而是最小化均方差,即每个人的年龄与预测年龄的误差平方和除以N。这很好理解,被预测出错的人数越多,均方差越大,通过最小化均方差能够找到最靠谱的分支依据。分支直到每个叶子节点上人的年龄都唯一或者达到预设的终止条件(如叶子个数上限)。若最终叶子节点上人的年龄不唯一,则以该节点上所有人的平均年龄作为该叶子节点的预测年龄。


3. GB(Gradient Boosting梯度提升)


提升树是迭代多棵树来共同决策,怎么实现呢?难道每棵树独立训练一遍,取平均值吗?当然不是,这是投票方法,并不是GBDT,此外只要训练集不变,独立训练三次的三棵树必定完全相同,这样没有意义。GBDT是把所有树的结论累加起来得出最终结论的,其核心在于,每一棵树学的是之前所有树结论之和的残差。比如A的真实年龄是18岁,第一棵树的预测年龄是12岁,差了6岁,即残差为6岁。那么在第二棵树里把A的年龄设为6岁去学习,如果第二棵树真的能把A分到6岁的叶节点,那么累加两棵树的结论就是A的真实年龄;如果第二棵树的结论是5岁,则仍然存在1岁的残差,第三棵树里A的年龄就变成1岁,继续学习。这就是Gradient Boosting的意义。


3.1 前向分步算法


AdaBoost算法是模型为加法模型、损失函数为指数函数、学习算法为前向分步算法的二类分类学习方法,是boosting提升方法的一个特例。


Boosting可以表示为


640.jpg


其中w是权重,ϕ是弱分类器的集合。前向分步算法其实是一个贪心算法,在每一步求解弱分类器和参数时不去修改之前已经求好的分类器ϕm和参数Wm。


输入: 训练数据集image.png;损失函数image.png;基函数集image.png

输出: 加法模型f(x)


(1) 初始化

(2) 对m=1, 2, …, M

 a) 极小化损失函数得到参数,

640.jpg


 b) 更新

640.jpg


(3) 得到加法模型


640.jpg


以上是提升方法的基本结构,可以看到其中存在变数的部分就是极小化损失函数这关键的一步。


3.2 各种提升方法


不同的损失函数和极小化损失函数方法决定了boosting算法的最终效果,下面是几个常见的boosting:


640.jpg


此外还有Huber损失和分位数损失,主要用于健壮回归,也就是减少异常点对损失函数的影响。


Huber损失是均方差和绝对损失的折衷产物,对于远离中心的异常点,采用绝对损失,而中心附近的点采用均方差。这个界限一般用分位数点度量。损失函数如下:


640.jpg


对应的负梯度误差为:


640.jpg


分位数损失对应的是分位数回归的损失函数,表达式为:


640.jpg


其中θ为分位数,需要在回归前指定。对应的负梯度误差为:


640.jpg


3.3 Gradient Descent


对于一般的损失函数,往往每一步优化没那么容易,如上面的绝对值损失函数。针对这一问题,Freidman提出了梯度提升算法,利用最速下降的近似方法,即利用损失函数的负梯度在当前模型中的值作为回归问题中提升树算法的残差近似值,拟合一个回归树。


第t轮第i个样本的损失函数负梯度表示为:


640.jpg


利用可以拟合一棵CART回归树,得到第t棵回归树,其对应的叶节点区域,其中J为叶节点的个数。

针对每一个叶节点里的样本,求出使损失函数最小,也就是拟合叶节点最好的输出值c_tj如下:


640.jpg


这样就得到了本轮的决策树拟合函数,如下:


640.jpg


从而本轮最终得到的强学习器表达式如下:


640.jpg


梯度下降作为求解确定可微方程的常用方法而被人所熟知。它是一种迭代求解方法,具体就是使解沿着当前解所对应梯度的反方向迭代。这个方向也叫做最速下降方向。具体推导过程如下,假定当前已经迭代到第k轮结束,那么第k+1轮的结果怎么得到呢?对函数f做如下一阶泰勒展开:


640.jpg


为了使第k+1轮的函数值比第k轮小,即如下不等式成立:


640.jpg


则只需使


640.jpg


这样一直迭代下去,直到,函数收敛,迭代停止。由于在做泰勒展开时,要求足够小,因此需要γ比较小才行,一般设置为0~1的小数。γ也叫做学习率。


4. Shrinkage


Shrinkage(缩减)的思想认为,每次走一小步逐渐逼近结果的效果,要比每次迈一大步很快逼近结果的方式更容易避免过拟合。即它不完全信任每一棵残差树,认为每棵树只学到了真理的一小部分,累加的时候只累加一小部分,通过多学习几棵树来弥补不足。


不使用Shrinkage时,image.png,Y表示真实值。

640.jpg


Shrinkage不改变第一个方程,只把第二个方程改为


640.jpg


Shrinkage仍然以残差作为学习目标,但对于残差学习出来的结果,只累加一小部分逐步逼近目标,step一般都比较小,如0.01~0.001(注意这不是gradient的step),导致各棵树的残差是渐变的而不是陡变的。直觉上也很好理解,不像直接用残差一步修复误差,而是只修复一点点,其实就是把大步切成了很多小步。本质上,shrinkage为每棵树设置了一个weight,累加时要乘以这个weight,但和gradient并没有关系。这个weight就是step。像AdaBoost一样,经验证明shrinkage能减少过拟合发生,但目前没有看到理论的证明。


5. GBDT回归算法


输入:训练样本集,最大迭代次数T,损失函数L

输出:强学习器f(x)


(1) 初始化弱学习器


640.jpg


(2) 对迭代轮数t=1,2,…,T,有


 a) 对样本i=1,2,…,N,计算负梯度


640.jpg


 b) 利用可以拟合一棵CART回归树,得到第t棵回归树,其对应的叶节点区域,其中J为叶节点的个数。

 c) 针叶子区域j=1,2,…,J,计算最佳拟合值:


640.jpg


 d) 更新强学习器


640.jpg


(3) 得到强学习器f(x)的表达式


640.jpg


下面是GBDT的大概框架:(Gradient Tree Boosting应该是GBDT另一种说法,有误请指正)


640.jpg


(算法自The Elements of Statistical Learning )

总之,所谓Gradient就是去拟合Loss function的梯度,将其作为新的弱回归树加入到总的算法中即可。


6.GBDT分类算法


GBDT的分类算法从思想上和GBDT的回归算法没有区别,但是由于样本输出不是连续的值,而是离散的类别,导致无法直接从输出类别去拟合类别输出的误差。


为了解决这个问题,主要有两个方法,一个是用指数损失函数,此时GBDT退化为Adaboost算法。另一种方法是用类似于逻辑回归的对数似然损失函数的方法。也就是说,采用类别的预测概率值和真实概率值的差来拟合损失。本文仅讨论用对数似然损失函数的GBDT分类。而对于对数似然损失函数,又有二元分类和多元分类的区别。


6.1 二元GBDT分类算法


对于二元GBDT,如果用类似于逻辑回归的对数似然损失函数,则损失函数为:


640.jpg


其中。则此时的负梯度误差为


640.jpg


对于生成的决策树,各个叶子节点的最佳残差拟合值为


640.jpg


由于上式比较难优化,一般使用近似值代替


640.jpg


除了负梯度计算和叶子节点的最佳残差拟合的线性搜索,二元GBDT分类和GBDT回归算法过程相同。


6.2 多元GBDT分类算法


多元GBDT要比二元GBDT复杂一些,对应的是多元逻辑回归和二元逻辑回归的复杂度差别。假设类别数为K,则此时对数似然损失函数为:


640.jpg

640.jpg


集合上两式,可以计算出第t轮的第i个样本对应类别l的负梯度误差为


640.jpg


观察上式可以看出,其实这里的误差就是样本i对应类别l的真实概率和t−1轮预测概率的差值。

对于生成的决策树,各个叶子节点的最佳残差拟合值为


640.jpg


由于上式比较难优化,一般使用近似值代替


640.jpg


除了负梯度计算和叶子节点的最佳残差拟合的线性搜索,多元GBDT分类和二元GBDT分类以及GBDT回归算法过程相同。


7. GBDT小结


GDBT本身并不复杂,不过要吃透的话需要对集成学习的原理、策树原理和各种损失函树有一定的了解。由于GBDT的卓越性能,只要是研究机器学习都应该掌握这个算法,包括背后的原理和应用调参方法。目前GBDT的算法比较好的库是xgboost。当然scikit-learn也可以。


最后总结下GBDT的优缺点。


GBDT主要的优点有


  1. 可以灵活处理各种类型的数据,包括连续值和离散值。
  2. 在相对少的调参时间情况下,预测的准确率也可以比较高。
  3. 使用一些健壮的损失函数,对异常值的鲁棒性非常强。比如 Huber损失函数和Quantile损失函数。

缺点:

  1. 由于弱学习器之间存在依赖关系,难以并行训练数据。不过可以通过自采样的SGBT来达到部分并行。


四、AdaBoost与Gradient Boosting对比


640.png


参考文献:

————————————————

[1] 机器学习之集成学习(四)GBDT 原文链接:https://blog.csdn.net/ivy_reny/article/details/79290745

[2] 集成学习,adaboosting与Gradient Boosting 原理解析 原文链接:

https://blog.csdn.net/zhuimeng999/article/details/80387078

[3] 机器学习:集成学习(Ada Boosting 和 Gradient Boosting) 原文链接:

https://www.cnblogs.com/volcao/p/9490651.html

[4] 机器学习集成学习算法——boosting系列 原文链接:https://blog.csdn.net/myy1012010626/article/details/80793074

[4] 机器学习相关知识整理系列之三:Boosting算法原理,GBDT&XGBoost 原文链接:https://www.cnblogs.com/csyuan/p/6537255.html

相关文章
|
4月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。
|
5月前
|
机器学习/深度学习 存储 Kubernetes
【重磅发布】AllData数据中台核心功能:机器学习算法平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
208 6
|
7月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于机器学习的人脸识别算法matlab仿真,对比GRNN,PNN,DNN以及BP四种网络
本项目展示了人脸识别算法的运行效果(无水印),基于MATLAB2022A开发。核心程序包含详细中文注释及操作视频。理论部分介绍了广义回归神经网络(GRNN)、概率神经网络(PNN)、深度神经网络(DNN)和反向传播(BP)神经网络在人脸识别中的应用,涵盖各算法的结构特点与性能比较。
|
8月前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
1406 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
8月前
|
机器学习/深度学习 算法 网络安全
CCS 2024:如何严格衡量机器学习算法的隐私泄露? ETH有了新发现
在2024年CCS会议上,苏黎世联邦理工学院的研究人员提出,当前对机器学习隐私保护措施的评估可能存在严重误导。研究通过LiRA攻击评估了五种经验性隐私保护措施(HAMP、RelaxLoss、SELENA、DFKD和SSL),发现现有方法忽视最脆弱数据点、使用较弱攻击且未与实际差分隐私基线比较。结果表明这些措施在更强攻击下表现不佳,而强大的差分隐私基线则提供了更好的隐私-效用权衡。
208 14
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
解锁机器学习的新维度:元学习的算法与应用探秘
元学习作为一个重要的研究领域,正逐渐在多个应用领域展现其潜力。通过理解和应用元学习的基本算法,研究者可以更好地解决在样本不足或任务快速变化的情况下的学习问题。随着研究的深入,元学习有望在人工智能的未来发展中发挥更大的作用。
|
2天前
|
机器学习/深度学习 算法 安全
【无人机三维路径规划】基于非支配排序的鲸鱼优化算法NSWOA与多目标螳螂搜索算法MOMSA求解无人机三维路径规划研究(Matlab代码实现)
【无人机三维路径规划】基于非支配排序的鲸鱼优化算法NSWOA与多目标螳螂搜索算法MOMSA求解无人机三维路径规划研究(Matlab代码实现)
|
2天前
|
机器学习/深度学习 算法 调度
基于NSGA-III算法求解微电网多目标优化调度研究(Matlab代码实现)
基于NSGA-III算法求解微电网多目标优化调度研究(Matlab代码实现)
|
4天前
|
机器学习/深度学习 运维 算法
基于非支配排序遗传算法NSGAII的综合能源优化调度(Matlab代码实现)
基于非支配排序遗传算法NSGAII的综合能源优化调度(Matlab代码实现)
基于非支配排序遗传算法NSGAII的综合能源优化调度(Matlab代码实现)

热门文章

最新文章