决策树算法之分类回归树 CART(Classification and Regression Trees)【2】

简介: [上一篇](https://www.atatech.org/articles/158334)文章主要介绍了分类树,下面我们再一起来看一下回归树,我们知道,分类决策树的叶子节点即为分类的结果;同理,回归树的叶子节点便是连续的预测值。那么,同样是回归算法,线性回归和决策树回归有什么区别呢?区别在于,前者拟合的是一条直线,而后者却可以拟合非线性的数据,如下图中的数据就是用线性回归来拟合的: ![]

上一篇文章主要介绍了分类树,下面我们再一起来看一下回归树,我们知道,分类决策树的叶子节点即为分类的结果;同理,回归树的叶子节点便是连续的预测值。那么,同样是回归算法,线性回归和决策树回归有什么区别呢?区别在于,前者拟合的是一条直线,而后者却可以拟合非线性的数据,如下图中的数据就是用线性回归来拟合的:

当数据呈现非线性分布时,例如下面的数据,假设它统计了流行歌手的喜好程度和年龄的关系,该系数值在 10 岁之前很低,接着在 10 到 20 岁时达到最高,但随着年龄的增加,该兴趣度会逐渐下降,如图所示:

上面的数据如果用线性回归来拟合,是这样的:

很明显,这样做会得到较大的 Bias,那么该数据就不应该使用线性回归这种简单的模型来表征,此时就需要用到非线性模型了,而回归树就是其中的一种。下边左图便是使用回归树对该数据进行拟合的结果,而右边是这棵树具体的样子:当 age 小于等于 13 时,结果为 1.228;age 大于 31 时,结果是 0.41;age 在 (13, 21] 的区域,结果为 100,剩下区域的结果为 54。

下面我们具体看一下这棵回归树是如何构建的

构建回归树

首先,我们在整个样本空间中选择一个阈值,该阈值可以将样本分为两部分,接下来分别对这两部分求出它们的均值,以均值作为预测值,计算所有数据的真实值到预测值之间的 SSR(Sum of Squared Residuals),SSR 本质上和 MSE(Mean Squared Error)的概念是一致的,都是衡量整体预测值和真实值之间的差异的,该差异越小越好。

以本数据为例,刚开始我们选择的阈值 threshold 为 1,则下图中的样本被阈值(虚线)分为两部分,然后分别对左右两边的数据求平均,结果如图中两条水平实线所示,以水平线作为每个区域的预测值,接着我们对每个点,求它们离均值之间的差的平方(误差的平方),并把它们加起来,得到的结果就是 SSR。

上图中的 SSR 为

$$ SSR = (0-0)^2 + (0-35.8)^2 + ... + (0-35.8)^2 = 31358 $$

每算完一个 SSR,都要改变阈值,用同样的方法在新的分类下算一个新的 SSR,如此循环下去,直到遍历完所有可能的域值,此时我们就可以作出一个「域值-SSR」的关系图,如下:

以上过程的目的是为了找一个阈值,可以使得 SSR 达到最小,而可以使 SSR 最小的域值就是我们的树根。反过来理解一下,即我们需要在特征空间(定义域)找到一个值,该值把样本分为两类,分别对应了 2 个不同的预测结果,此预测结果和样本真实值(值域)之间的差异要越小越好,在本例中,该值为 13,示意图如下:

和分类树一样,只要确定了树根的构建算法,后面构造其他节点实际上和构造树根是一模一样的,以上图为例,即分别以树的左右两边的子样本空间为整个样本空间,继续构造子样本空间的“树根”,实际上这就是递归,同时在递归的过程中,随着树的节点不断分裂,我们得到的残差(SSR)会越来越小。

需要注意的是,决策树如果不设限制,它的节点可以无限分裂下去,直到叶子节点中只包含 1 个元素为止,此时整棵树的残差达到最小值 0,这样做会让我们的模型在训练时得到很低的 Bias,但可想而知的是它的泛化能力很弱,即 Variance 很高,于是便过拟合了,这也是决策树容易过拟合的原因。

为了防止过拟合,通常有 2 个参数可以设置,一个是树的高度,另一个是叶子节点中最小样本的个数,本文中的模型对这两个参数的设置分别是 3 和 4;在真实环境中,叶子节点的样本数一般会设在 20 以上。

多维度特征的回归树

上面例子是使用单特征(年龄)来构建回归树,真实项目往往会有多个特征,此时我们该如何做呢?我们在原来的数据集中增加两个特征:性别和月支出,如下

年龄 性别 月支出 流行歌手喜好度
3 male 300 0
7 female 300 5
13 female 500 90
17 male 500 85
18 female 500 99
25 male 4000 75
30 female 5000 40
35 male 7000 0

现在我们知道了,构造决策树的要点在于树根的构造,多个特征的话,我们需要分别对每个特征,找出可以使 SSR 最低的阈值,根据前面学到的知识,对年龄来说,可使 SSR 最低的域值是 「age<=7」,此时 $SSR_{age}=7137$;

同理,对月支出来说,可使 SSR 最低的域值是 「expense<=300」,此时 $SSR_{expense}=7143$。

而性别这个特征比较特别,它只有一个阈值,其 $SSR_{gender}=12287$。

以上三个数字,有兴趣的同学可以根据上面的表格自己算一下,最终我们选择 SSR 最低的特征及其阈值作为根节点,即「age<=7」。

知道根节点如何产生后,后面节点的生成就好办了,于是多维特征的回归树我们也构建出来了。

总结

本文主要介绍回归决策树的生成算法,及回归树中比较重要的参数为:树的深度和叶子节点中最小的样本数,这两个参数可以防止过拟合问题。

最后我们一起学习了从多个特征维度来产生回归树,它和单维度特征的区别在于,每产生一个节点前,都需要计算每个特征的 $SSR_{min}$ 及其对应的阈值,最后取其中最小的 $SSR_{min}$ 对应的特征和阈值作为该节点。

参考资料:Regression Trees, Clearly Explained

相关文章:

相关文章
|
10天前
|
机器学习/深度学习 数据采集 算法
Python用逻辑回归、决策树、SVM、XGBoost 算法机器学习预测用户信贷行为数据分析报告
Python用逻辑回归、决策树、SVM、XGBoost 算法机器学习预测用户信贷行为数据分析报告
|
8天前
|
机器学习/深度学习 算法 数据可视化
Matlab决策树、模糊C-均值聚类算法分析高校教师职称学历评分可视化
Matlab决策树、模糊C-均值聚类算法分析高校教师职称学历评分可视化
|
8天前
|
机器学习/深度学习 算法 数据可视化
【Python机器学习专栏】决策树算法的实现与解释
【4月更文挑战第30天】本文探讨了决策树算法,一种流行的监督学习方法,用于分类和回归。文章阐述了决策树的基本原理,其中内部节点代表特征判断,分支表示判断结果,叶节点代表类别。信息增益等标准用于衡量特征重要性。通过Python的scikit-learn库展示了构建鸢尾花数据集分类器的示例,包括训练、预测、评估和可视化决策树。最后,讨论了模型解释和特征重要性评估在优化中的作用。
|
9天前
|
机器学习/深度学习 算法 搜索推荐
R语言LASSO特征选择、决策树CART算法和CHAID算法电商网站购物行为预测分析
R语言LASSO特征选择、决策树CART算法和CHAID算法电商网站购物行为预测分析
|
10天前
|
算法 数据可视化 前端开发
r语言有限正态混合模型EM算法的分层聚类、分类和密度估计及可视化(下)
r语言有限正态混合模型EM算法的分层聚类、分类和密度估计及可视化
|
10天前
|
算法 数据可视化 数据挖掘
r语言有限正态混合模型EM算法的分层聚类、分类和密度估计及可视化(上)
r语言有限正态混合模型EM算法的分层聚类、分类和密度估计及可视化
|
12天前
|
编解码 算法 数据可视化
【视频】时间序列分类方法:动态时间规整算法DTW和R语言实现
【视频】时间序列分类方法:动态时间规整算法DTW和R语言实现
|
12天前
|
机器学习/深度学习 数据采集 算法
共享单车需求量数据用CART决策树、随机森林以及XGBOOST算法登记分类及影响因素分析
共享单车需求量数据用CART决策树、随机森林以及XGBOOST算法登记分类及影响因素分析
|
18天前
|
机器学习/深度学习 人工智能 算法
基于DCT和扩频的音频水印嵌入提取算法matlab仿真
本文介绍了结合DCT和扩频技术的音频水印算法,用于在不降低音质的情况下嵌入版权信息。在matlab2022a中实现,算法利用DCT进行频域处理,通过扩频增强水印的隐蔽性和抗攻击性。核心程序展示了水印的嵌入与提取过程,包括DCT变换、水印扩频及反变换步骤。该方法有效且专业,未来研究将侧重于提高实用性和安全性。
|
5天前
|
存储 算法
m基于LDPC编译码的matlab误码率仿真,对比SP,MS,NMS以及OMS四种译码算法
MATLAB 2022a仿真实现了LDPC译码算法比较,包括Sum-Product (SP),Min-Sum (MS),Normalized Min-Sum (NMS)和Offset Min-Sum (OMS)。四种算法在不同通信场景有各自优势:SP最准确但计算复杂度高;MS计算复杂度最低但性能略逊;NMS通过归一化提升低SNR性能;OMS引入偏置优化高SNR表现。适用于资源有限或高性能需求的场景。提供的MATLAB代码用于仿真并绘制不同SNR下的误码率曲线。
145 3