回归树

简介:   大家都知道,决策树能够做分类问题,但是到了CART(classsiification and regression tree)算法发明的时候,树又能做分类也能做回归。

  大家都知道,决策树能够做分类问题,但是到了CART(classsiification and regression tree)算法发明的时候,树又能做分类也能做回归。感谢这位博主分享这么通俗易懂的博客,我只是对这篇博客进行整理,作为自己学习之用

1.原理描述

  一个回归树对应这输入空间(即特征空间)的一个划分以及在划分单元上的输出值。分类树中,我们采用信息论的方法,通过计算选择最佳划分点。而在回归树中,采用的是启发式的方法。假如我们有n个特征,每个特征有s_i(i\in(1,n))个取值,那我们遍历所有特征,尝试该特征所有取值,对空间进行划分,直到取到特征j的取值s,使得损失函数最小(回归树的损失函数用平方差),这样就得到了一个划分点。公式如图:

img_6201427e67c79b1408372d07166fad9d.gif

  假设将输入空间划分为M个单元: R_1R_2,..., R_m,那么每个区域的输出值就是: c_m = ave(y_i|x_i\in R_m),也就是该区域内所有点y值的平均数。
  举个例子。如下图所示,假如我们想要对楼内居民的年龄进行回归,将楼划分为3个区域 R_1R_2R_3(红线),那么 R_1的输出就是第一列四个居民年龄的平均值, R_2的输出就是第二列四个居民年龄的平均值, R_3的输出就是第三、四列八个居民年龄的平均值。
img_cd4304fd0251b3a5ac6dfcf4dcd76b06.png

2.算法描述

img_6b009e9d6d68b92752d5cb1ec6f181c8.png
回归树

3.一个实例

  依照个人的见解,其实树模型无论是回归还是分类,都是用关于自变量的不等式将整个空间分成一个个的小区域,然后依照提交对应哪个区域是几(回归)或者哪个区域是哪个类别(分类)。下图是回归树的图


img_1881cbb0f39bfb50e8419d3bafebfefb.png

  下面这个实例我就直接贴了。


img_125952c2ce1bbed833fb18ed470ce042.png

img_1487d7734dd22ebc1b50f3388e278547.png

img_1487d7734dd22ebc1b50f3388e278547.png

img_ed329dfb645028dd819cab181cdb9360.png

  实际上,回归树总体流程类似于分类树,分枝时穷举每一个特征的每一个阈值,来寻找最优切分特征j和最优切分点s,衡量的方法是平方误差最小化。分枝直到达到预设的终止条件(如叶子个数上限)就停止。

目录
相关文章
|
机器学习/深度学习 搜索推荐 算法
决策树算法之 AdaBoost
AdaBoost 是一种更高级的「森林」类型的决策树,和随机森林比起来,它有以下三个特点 1. AdaBoost 的每棵树都只有一个根节点和两个叶子节点,实际上叫树桩(stump)可能会更合适 2. AdaBoost 的每个树桩的权重是不同的,而随机森林中的每棵树的权重是相同的 3. 前一个树桩的错误数据会影响后一个树桩的生成,意味着后面的树桩是前面树桩的补足。这种思想也被称为 Boos
|
8月前
|
存储 算法 Python
决策树算法
决策树算法
50 2
|
算法 数据可视化 数据挖掘
决策树算法和实际应用
决策树算法和实际应用
277 2
|
机器学习/深度学习 算法
|
机器学习/深度学习 算法 知识图谱
决策树之 GBDT 算法 - 回归部分
GBDT(Gradient Boosting Decision Tree)是被工业界广泛使用的机器学习算法之一,它既可以解决回归问题,又可以应用在分类场景中,该算法由斯坦福统计学教授 Jerome H. Friedman 在 1999 年发表。本文中,我们主要学习 GBDT 的回归部分。 在学习 GBDT 之前,你需要对 [CART](https://www.atatech.org/ar
|
机器学习/深度学习 人工智能 算法
连载|决策树(下)
连载|决策树(下)
|
机器学习/深度学习
R决策树实现
R决策树实现
185 0
R决策树实现
|
9月前
|
机器学习/深度学习 数据采集 并行计算
决策树
分类决策树
68 0

热门文章

最新文章