从零开始用Python构造决策树(附公式、代码)

简介:
+关注继续查看

起步


熵的计算:

根据计算公式:

1de8624be6c7e7b1cb6c2c052b0932d61d3ad5c0

对应的 python 代码:

da5e4ae0a67c638c8ff22918319d885f59418d7e

条件熵的计算:


根据计算方法:

b904e3b21bc992d4dc8886e792baf8e4ddd80a7e

对应的 python 代码:

e82147b1a6a153fe4bdead8771c97fe550b70597

其中参数 future_list 是某一特征向量组成的列表,result_list 是 label 列表。

信息增益:

根据信息增益的计算方法:

783f4096d3a014ef4bb8c6338b9701b6db5aebd0

对应的python代码:

b6afbcadce0cce9ba3b4f0b66d752a811949f9d1

定义决策树的节点

作为树的节点,要有左子树和右子树是必不可少的,除此之外还需要其他信息:

49a615c8be5999314c32aea0b79b334de6a69ca7

树的节点会有两种状态,叶子节点中 results 属性将保持当前的分类结果。非叶子节点中, col 保存着该节点计算的特征索引,根据这个索引来创建左右子树。

has_calc_index 属性表示在到达此节点时,已经计算过的特征索引。特征索引的数据集上表现是列的形式,如数据集(不包含结果集):

1241c86f064fb4d62825881caf2fe2951f9dafe8

有三条数据,三个特征,那么第一个特征对应了第一列 [1, 0, 0] ,它的索引是 0 。

递归的停止条件

本章将构造出完整的决策树,所以递归的停止条件是所有待分析的训练集都属于同一类:

aee432d291fc2997700563bfe65a7dce91b74603

从训练集中筛选最佳的特征:

22f177641cf24ffc07fd84c5707c26187b6fe582

因此计算节点就是调用 best_index = choose_best_future(node.data_set, node.labels, node.has_calc_index) 来获取最佳的信息增益的特征索引。

构造决策树

决策树中需要一个属性来指向树的根节点,以及特征数量。不需要保存训练集和结果集,因为这部分信息是保存在树的节点中的。

6591ee9c0104386eefc264d483c4ab06c18e4de3

创建决策树:

这里需要递归来创建决策树:

47a96ed7e9d988c252d20ec40628b868e16e6298

根据信息增益的特征索引将训练集再划分为左右两个子树。

训练函数

也就是要有一个 fit 函数:

317ad2493849481c69c1043f1654f15cd5cafd14

清理训练集

训练后,树节点中数据集和结果集等就没必要的,该模型只要 col 和 result 就可以了:

b72c213ca146c03bedcc7ba729d8cc18662409b8

预测函数

提供一个预测函数:

539b1d435250834edb960355bc58e62645dafae5

测试

数据集使用前面《应用篇》中的向量化的训练集:

63ad75091bb5e286418df7b5a903d6fbe9516f35


原文发布时间为:2017-12-18

本文作者:weapon

本文来自云栖社区合作伙伴“数据派THU”,了解相关信息可以关注“数据派THU”微信公众号

相关文章
|
2月前
|
机器学习/深度学习 大数据 测试技术
【Python机器学习】实验09 决策树2
【Python机器学习】实验09 决策树
26 0
|
2月前
|
机器学习/深度学习 算法 Python
【Python机器学习】实验09 决策树1
【Python机器学习】实验09 决策树
33 0
|
4月前
|
机器学习/深度学习 算法 数据可视化
【机器学习实战】10分钟学会Python怎么用DT决策树模型进行分类预测(六)
【机器学习实战】10分钟学会Python怎么用DT决策树模型进行分类预测(六)
96 0
|
4月前
|
机器学习/深度学习 算法 Python
Python机器学习——决策树
Python机器学习——决策树
53 0
|
5月前
|
机器学习/深度学习 算法 Python
【数学建模】机器学习预测算法(KNN、随机森林、网格搜索对决策树、支持向量机)(Python代码实现)【2021华为杯】
【数学建模】机器学习预测算法(KNN、随机森林、网格搜索对决策树、支持向量机)(Python代码实现)【2021华为杯】
117 0
|
7月前
|
机器学习/深度学习 算法 Python
Python实战|用决策树实现NBA获胜球队预测
Python实战|用决策树实现NBA获胜球队预测
|
7月前
|
机器学习/深度学习 算法 Python
机器学习 - [源码实现决策树小专题]决策树中混杂度数值度量的Python编程实现(信息熵和基尼系数的计算)
顾名思义,所谓混杂度就是指无序程度,一般使用“信息熵”(香浓熵)或者“及逆序数进行度量”。本文介绍及其学习决策树算法中混杂度数值度量的Python编程实现
129 0
|
7月前
|
机器学习/深度学习 算法 Python
机器学习 - 决策树中,信息增益、信息增益率计算以及最佳特征挑选的Python实现
本文介绍决策树中,信息增益、信息增益率计算以及最佳特征挑选的Python实现
110 0
|
8月前
|
机器学习/深度学习 存储 算法
python机器学习课程——决策树全网最详解超详细笔记附代码
决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。决策树方法最早产生于上世纪60年代,到70年代末。由J Ross Quinlan提出了ID3算法,此算法的目的在于减少树的深度。但是忽略了叶子数目的研究。C4.5算法在ID3算法的基础上进行了改进,对于预测变量的缺值处理、剪枝技术、派生规则等方面作了较大改进,既适合于分类问题,又适合于回归问题。决策树算法构造决策
158 0
|
8月前
|
机器学习/深度学习 人工智能 算法
python机器学习数据建模与分析——决策树详解及可视化案例
你是否玩过二十个问题的游戏,游戏的规则很简单:参与游戏的一方在脑海里想某个事物,其他参与者向他提问题,只允许提20个问题,问题的答案也只能用对或错回答。问问题的人通过推断分解,逐步缩小待猜测事物的范围。决策树的工作原理与20个问题类似,用户输人一系列数据,然后给出游戏的答案。我们经常使用决策树处理分类问题,近来的调查表明决策树也是最经常使用的数据挖掘算法。它之所以如此流行,一个很重要的原因就是使用者基本上不用了解机器学习算法,也不用深究它是如何工作的。
热门文章
最新文章
推荐文章
更多