机器学习算法之决策树

简介: 机器学习算法之决策树

1.决策树简介

科普中国:决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。

决策树思想的来源非常朴素,最早的决策树就是利用程序设计中的条件分支结构(if-else)分割数据的一种分类学习方法。接下来使用简单的语言进行描述:

决策树:是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果,本质是一颗由多个判断节点组成的树

比如生活中和女朋友决策去哪旅行:

1.距离超过30公里的地方不去

2.没有美食的地方不去

3.没有拍照景点,打卡胜地的地方不去

4.没有购物的地方不去

先选择一个地点(拉萨):距离超过30公里,不去!

再选择一个地点(衡水):距离在30公里以内,往下进行判断;有美食(大饼卷肉、咸鸭蛋),再向下进行;没有打卡胜地,不去!

选择下一个地点(武汉):距离在30公里以内,往下进行判断;有美食(热干面),再向下进行;有打卡胜地(武汉大学的樱花大道),再向下进行;有购物地方(光谷),那此次旅行的地方就它了!更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

1.1 知识点汇总

1.决策树构建的基本步骤如下

1) 开始将所有记录看作一个节点

2) 遍历每个变量的每一种分割方式,找到最好的分割点

3) 分割成两个节点 N1N2

4) 对 N1N2 分别继续执行2-3步,直到每个节点足够「纯」为止。

2.决策树的变量可以有两种

1) 数字型 (Numeric) :变量类型是整数或浮点数。用「>=」,「>」,「<」或「<=」作为分割条件(排序后,利用已有的分割情况,可以优化分割算法的时间复杂度)。

2) 名称型 (Nominal) :类似编程语言中的枚举类型,变量只能从有限的选项中选取,使用「=」来分割。

3.如何评估分割点的好坏?

如果一个分割点可以将当前的所有节点分为两类,使得每一类都很「纯」,也就是同一类的记录较多,那么就是一个好分割点。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

构建决策树采用贪心算法,只考虑当前纯度差最大的情况作为分割点。

2.决策树分类原理

2.1 熵

物理学上,Entropy 是「混乱」程度的量度。系统越有序,熵值越低;系统越混乱或者分散,熵值越高

信息理论

1.从信息的完整性上进行的描述:

系统的有序状态一致时,数据越集中的地方熵值越小,数据越分散的地方熵值越大。

2.从信息的有序性上进行的描述:

数据量一致时系统越有序,熵值越低;系统越混乱或者分散,熵值越高

1948年香农提出了信息熵Entropy)的概念。

假如事件 A 的分类划分是(A1 ,A2,...,An),每部分发生的概率是(p1,p2,...,pn),那信息熵定义为公式如下:(log是以2为底,lg是以10为底)

2.1.1 案例

案例1:如果一颗骰子的六个面都是1 ,投掷它不会给你带来任何新信息,因为你知道它的结果肯定是1,它的信息熵为?


- log(1) = 0

案例2:假设没有看世界杯的比赛,但是想知道哪支球队会是冠军,于是只能猜测某支球队是或不是冠军,然后观众用对或不对来回答。想要猜测次数尽可能少,你会用什么方法?

H(X) = 1\2log(2)+1\4log(4)+1\8log(8)+1\8log(8)=(1\2+1\2+3\8+3\8)log(2)=7\4bits
tips:
    以2为底的对数,记做lb,单位bit
    以e为底的对数,记做ln,单位nat

2.2 决策树的划分依据

2.2.1 信息增益

信息增益:以某特征划分数据集前后的熵的差值。熵可以表示样本集合的不确定性,熵越大,样本的不确定性就越高。因此可以使用划分前后集合熵的差值来衡量使用当前特征对于样本集合 D 划分效果的好坏

信息增益 = entroy(前) - entroy(后)

特征 A 对训练数据集 D 的信息增益 g(D,A) ,定义为集合 D 的信息熵 H(D) 与特征 A 给定条件下 D 的信息条件熵 H(D|A) 之差,即公式为:

公式的详细解释:

注:信息增益表示得知特征 X 的信息而使得类 Y 的信息熵减少的程度更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

2.2.2 信息增益率

增益率:增益比率度量是用增益度量 Gain(S,A) 和所分离信息度量 SplitInformation的比值来共同定义的。

2.2.3 基尼值和基尼指数

基尼值 Gini(D)从数据集 D 中随机抽取两个样本,其类别标记不一致的概率。故,Gini(D) 值越小,数据集 D 的纯度越高。

基尼指数 Gini_index(D)一般,选择使划分后基尼系数最小的属性作为最优化分属性。

2.3 常见决策树类型比较

2.3.1 ID3 算法

存在的缺点

(1) ID3 算法在选择根节点和各内部节点中的分支属性时,采用信息增益作为评价标准。信息增益的缺点是倾向于选择取值较多的属性,在有些情况下这类属性可能不会提供太多有价值的信息.更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

(2) ID3算法只能对描述属性为离散型属性的数据集构造决策树

2.3.2 C4.5算法

做出的改进(为什么使用 C4.5要好)

(1) 用信息增益率来选择属性

(2) 可以处理连续数值型属性

(3) 采用了一种后剪枝方法

(4) 对于缺失值的处理

C4.5算法的优缺点

优点:产生的分类规则易于理解,准确率较高。

缺点:在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。

此外,C4.5只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时程序无法运行。

2.3.3 CART算法

CART 算法相比 C4.5 算法的分类方法,采用了简化的二叉树模型,同时特征选择采用了近似的基尼系数来简化计算。

C4.5 不一定是二叉树,但 CART 一定是二叉树。

同时,无论是 ID3 , C4.5 还是 CART ,在做特征选择的时候都是选择最优的一个特征来做分类决策,但是大多数,分类决策不应该是由某一个特征决定的,而是应该由一组特征决定的。这样决策得到的决策树更加准确。这个决策树叫做多变量决策树( multi-variate decision tree)。在选择最优特征的时候,多变量决策树不是选择某一个最优特征,而是选择最优的一个特征线性组合来做决策。这个算法的代表是 OC1,这里不多介绍。

如果样本发生一点点的改动,就会导致树结构的剧烈改变。这个可以通过集成学习里面的随机森林之类的方法解决。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

3.cart剪枝

3.1 为什么要剪枝

横轴表示在决策树创建过程中树的结点总数,纵轴表示决策树的预测精度。

实线显示的是决策树在训练集上的精度,虚线显示的则是在一个独立的测试集上测量出来的精度。

随着树的增长,在训练样集上的精度是单调上升的, 然而在独立的测试样例上测出的精度先上升后下降。

出现这种情况的原因:

原因1:噪声、样本冲突,即错误的样本数据。

原因2:特征即属性不能完全作为分类标准。

原因3:巧合的规律性,数据量不够大。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

3.2 常用的减枝方法

3.2.1 预剪枝

(1)每一个结点所包含的最小样本数目,例如10,则该结点总样本数小于10时,则不再分;

(2)指定树的高度或者深度,例如树的最大深度为4;

(3)指定结点的熵小于某个值,不再划分。随着树的增长, 在训练样集上的精度是单调上升的, 然而在独立的测试样例上测出的精度先上升后下降。

3.2.2 后剪枝

后剪枝,在已生成过拟合决策树上进行剪枝,可以得到简化版的剪枝决策树。


相关文章
|
4天前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
19 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
阿里云人工智能平台 PAI 团队发表的图像编辑算法论文在 MM2024 上正式亮相发表。ACM MM(ACM国际多媒体会议)是国际多媒体领域的顶级会议,旨在为研究人员、工程师和行业专家提供一个交流平台,以展示在多媒体领域的最新研究成果、技术进展和应用案例。其主题涵盖了图像处理、视频分析、音频处理、社交媒体和多媒体系统等广泛领域。此次入选标志着阿里云人工智能平台 PAI 在图像编辑算法方面的研究获得了学术界的充分认可。
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
|
25天前
|
机器学习/深度学习 算法 Java
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
|
1月前
|
机器学习/深度学习 人工智能 算法
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
玉米病害识别系统,本系统使用Python作为主要开发语言,通过收集了8种常见的玉米叶部病害图片数据集('矮花叶病', '健康', '灰斑病一般', '灰斑病严重', '锈病一般', '锈病严重', '叶斑病一般', '叶斑病严重'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。再使用Django搭建Web网页操作平台,实现用户上传一张玉米病害图片识别其名称。
55 0
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
|
1月前
|
机器学习/深度学习 算法 决策智能
【机器学习】揭秘深度学习优化算法:加速训练与提升性能
【机器学习】揭秘深度学习优化算法:加速训练与提升性能
|
1月前
|
机器学习/深度学习 算法 Python
探索机器学习中的决策树算法:从理论到实践
【10月更文挑战第5天】本文旨在通过浅显易懂的语言,带领读者了解并实现一个基础的决策树模型。我们将从决策树的基本概念出发,逐步深入其构建过程,包括特征选择、树的生成与剪枝等关键技术点,并以一个简单的例子演示如何用Python代码实现一个决策树分类器。文章不仅注重理论阐述,更侧重于实际操作,以期帮助初学者快速入门并在真实数据上应用这一算法。
|
13天前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的决策树算法
【10月更文挑战第29天】本文将深入浅出地介绍决策树算法,一种在机器学习中广泛使用的分类和回归方法。我们将从基础概念出发,逐步深入到算法的实际应用,最后通过一个代码示例来直观展示如何利用决策树解决实际问题。无论你是机器学习的初学者还是希望深化理解的开发者,这篇文章都将为你提供有价值的见解和指导。
|
1月前
|
机器学习/深度学习 算法 数据处理
EM算法对人脸数据降维(机器学习作业06)
本文介绍了使用EM算法对人脸数据进行降维的机器学习作业。首先通过加载ORL人脸数据库,然后分别应用SVD_PCA、MLE_PCA及EM_PCA三种方法实现数据降维,并输出降维后的数据形状。此作业展示了不同PCA变种在人脸数据处理中的应用效果。
32 0
|
6月前
|
机器学习/深度学习 存储 搜索推荐
利用机器学习算法改善电商推荐系统的效率
电商行业日益竞争激烈,提升用户体验成为关键。本文将探讨如何利用机器学习算法优化电商推荐系统,通过分析用户行为数据和商品信息,实现个性化推荐,从而提高推荐效率和准确性。
239 14
|
6月前
|
机器学习/深度学习 算法 搜索推荐
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)