【机器学习】集成学习(Boosting)——提升树算法(BDT)(理论+图解+公式推导)

本文涉及的产品
文本翻译,文本翻译 100万字符
文档翻译,文档翻译 1千页
图片翻译,图片翻译 100张
简介: 【机器学习】集成学习(Boosting)——提升树算法(BDT)(理论+图解+公式推导)

2021人工智能领域新星创作者,带你从入门到精通,该博客每天更新,逐渐完善机器学习各个知识体系的文章,帮助大家更高效学习。


Boosting提升树

Boosting思想主要是采用将模型进行串行组合的思想,利用多个弱学习器来学习我们的数据进而形成一个强大的学习器,像AdaBoost就是将我们的基分类器进行线性组合。

本节将讲一种AdaBoost的特例,当AdaBoost+决策树=提升树

提升树模型

AdaBoost采用了一种加法模型,将我们的弱分类器进行线性组合,而且同时使用了前向分步算法进行优化,如果此时我们的弱学习器为决策树的话,此时我们就会得到一种特例,常被叫做提升树。

如果对于分类问题的话,弱学习器一般为二叉分类树,如果对于回归问题来说,弱学习器为二叉回归树。

这里讲个概念就是决策树桩:它的意思就是它是最简单的决策树,只有根节点和两个子节点,即根据是否条件分支获得的树,你比如当 x > 1 x>1x>1 ,y = + 1 y=+1y=+1 ,如果 x < = 1 x<=1x<=1 , y = − 1 y=-1y=1 ,此时这个模型就是决策树桩。

对于提升树的加法模型定义如下:

f ( x ) = ∑ m = 1 M T ( x ; θ m ) f(x)=\sum_{m=1}^MT(x;\theta_m)f(x)=m=1MT(x;θm)

  • T:T代表决策树模型
  • M:代表总共有M个弱学习器
  • x:代表样本数据
  • θ m \theta_mθm :代表第m个学习器的参数

提升树算法

因为提升树是基于AdaBoost的,所以它的优化算法也是采用了前向分步算法,所以我们需要由前向后一个一个优化我们的树模型,基于这个我们定义当我们优化到m步时,所对应的总模型学习器为:

f m ( x ) = f m − 1 ( x ) + T ( x ; θ m ) f_m(x)=f_{m-1}(x)+T(x;\theta_m)fm(x)=fm1(x)+T(x;θm)

注意:下标m不是代表第m个分类器,而是代表累积的意思,f m − 1 ( x ) = T 1 ( x ) + T 2 ( x ) + . . . + T m − 1 ( x ) f_{m-1}(x)=T_1(x)+T_2(x)+...+T_{m-1}(x)fm1(x)=T1(x)+T2(x)+...+Tm1(x)

f m − 1 ( x ) f_{m-1}(x)fm1(x) 是我们前几步优化好的模型,也就是现在的模型,后面的 T ( x ; θ m ) T(x;\theta_m)T(x;θm) 代表我们当前轮数正在优化的树模型,为了求得优化参数,我们定义极小化经验风险函数,也就是最小化损失函数,来求得 T ( x ; θ m ) T(x;\theta_m)T(x;θm) 中的待优化参数 θ m \theta_mθm ,定义损失函数如下:

L ( θ m ) = ∑ i = 1 N L ( y i , f m − 1 ( x ) + T ( x i ; θ m ) ) L(\theta_m)=\sum_{i=1}^NL(y_i,f_{m-1}(x)+T(x_i;\theta_m))L(θm)=i=1NL(yi,fm1(x)+T(xi;θm))

我们的目标就是获得:

θ m ∗ = a r g m i n θ ∑ i = 1 N L ( y i , f m − 1 ( x ) + T ( x i ; θ m ) ) \theta_m^*=argmin_{\theta}\sum_{i=1}^NL(y_i,f_{m-1}(x)+T(x_i;\theta_m))θm=argminθi=1NL(yi,fm1(x)+T(xi;θm))

我们需要解出当前正在优化的树的最优参数,由于 f m − 1 ( x ) f_{m-1}(x)fm1(x) 是前几轮优化后的模型,所以此时可以看作常数,参数只有 T ( x i ; θ m ) T(x_i;\theta_m)T(xi;θm) 中的 θ \thetaθ

针对于分类问题损失函数一般使用交叉熵,而回归问题更多使用的是MSE均方误差。

即:

L = ( y − f m − 1 ( x ) − T ( x ; θ m ) ) 2 L=(y-f_{m-1}(x)-T(x;\theta_m))^2L=(yfm1(x)T(x;θm))2

优化问题

我们使用前向分步算法进行优化,所以定义初始学习器 f 0 ( x ) = 0 f_0(x)=0f0(x)=0

所以有:

f 0 ( x ) = 0 f m ( x ) = f m − 1 ( x ) + T ( x ; θ m ) f M ( x ) = ∑ m = 1 M T ( x ; θ m ) f_0(x)=0\\f_m(x)=f_{m-1}(x)+T(x;\theta_m)\\f_M(x)=\sum_{m=1}^MT(x;\theta_m)f0(x)=0fm(x)=fm1(x)+T(x;θm)fM(x)=m=1MT(x;θm)

在前向分布算法的第m步,给定当前模型 f m − 1 ( x ) f_{m-1}(x)fm1(x) ,我们目标是要求解:

θ m ∗ = a r g m i n θ ∑ i = 1 N L ( y i , f m − 1 ( x ) + T ( x i ; θ m ) ) \theta_m^*=argmin_{\theta}\sum_{i=1}^NL(y_i,f_{m-1}(x)+T(x_i;\theta_m))θm=argminθi=1NL(yi,fm1(x)+T(xi;θm))

其中 f m − 1 ( x ) f_{m-1}(x)fm1(x) 代表前 m-1棵树加权的模型,T ( x ; θ m ) T(x;\theta_m)T(x;θm) 为我们当前第m棵树模型。

对于回归问题,定义MSE平方损失有:

L ( θ ) = ∑ i = 1 N ( y i − f m ( x ) ) 2 = ∑ i = 1 N ( y i − f m − 1 ( x ) − T ( x ; θ m ) ) 2 L(\theta)=\sum_{i=1}^N(y_i-f_m(x))^2\\=\sum_{i=1}^N(y_i-f_{m-1}(x)-T(x;\theta_m))^2L(θ)=i=1N(yifm(x))2=i=1N(yifm1(x)T(x;θm))2

我们进行m次循环,分别优化这个函数,优化加入每个新学习器后的残差和。


目录
相关文章
|
12天前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
44 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
1月前
|
机器学习/深度学习 算法 Java
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
|
22天前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的决策树算法
【10月更文挑战第29天】本文将深入浅出地介绍决策树算法,一种在机器学习中广泛使用的分类和回归方法。我们将从基础概念出发,逐步深入到算法的实际应用,最后通过一个代码示例来直观展示如何利用决策树解决实际问题。无论你是机器学习的初学者还是希望深化理解的开发者,这篇文章都将为你提供有价值的见解和指导。
|
6月前
|
机器学习/深度学习 存储 搜索推荐
利用机器学习算法改善电商推荐系统的效率
电商行业日益竞争激烈,提升用户体验成为关键。本文将探讨如何利用机器学习算法优化电商推荐系统,通过分析用户行为数据和商品信息,实现个性化推荐,从而提高推荐效率和准确性。
242 14
|
6月前
|
机器学习/深度学习 算法 数据可视化
实现机器学习算法时,特征选择是非常重要的一步,你有哪些推荐的方法?
实现机器学习算法时,特征选择是非常重要的一步,你有哪些推荐的方法?
119 1
|
6月前
|
机器学习/深度学习 算法 搜索推荐
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
|
6月前
|
机器学习/深度学习 数据采集 算法
解码癌症预测的密码:可解释性机器学习算法SHAP揭示XGBoost模型的预测机制
解码癌症预测的密码:可解释性机器学习算法SHAP揭示XGBoost模型的预测机制
315 0
|
6月前
|
机器学习/深度学习 数据采集 监控
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
925 0
|
6月前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机(SVM)算法
【2月更文挑战第20天】 在数据科学与人工智能的领域中,支持向量机(SVM)是一种强大的监督学习算法,它基于统计学习理论中的VC维理论和结构风险最小化原理。本文将深入探讨SVM的核心概念、工作原理以及实际应用案例。我们将透过算法的数学原理,揭示如何利用SVM进行有效的数据分类与回归分析,并讨论其在处理非线性问题时的优势。通过本文,读者将对SVM有更深层次的理解,并能够在实践中应用这一算法解决复杂的数据问题。
89 0
|
6月前
|
机器学习/深度学习 分布式计算 算法
大模型开发:你如何确定使用哪种机器学习算法?
在大型机器学习模型开发中,选择算法是关键。首先,明确问题类型(如回归、分类、聚类等)。其次,考虑数据规模、特征数量和类型、分布和结构,以判断适合的算法。再者,评估性能要求(准确性、速度、可解释性)和资源限制(计算资源、内存)。同时,利用领域知识和正则化来选择模型。最后,通过实验验证和模型比较进行优化。此过程涉及迭代和业务需求的技术权衡。
106 2
下一篇
无影云桌面