通俗理解决策树中的熵&条件熵&信息增益

简介: 参考通俗理解决策树算法中的信息增益说到决策树就要知道如下概念:熵:表示一个随机变量的复杂性或者不确定性。假如双十一我要剁手买一件衣服,但是我一直犹豫着要不要买,我决定买这件事的不确定性(熵)为2.6。

参考通俗理解决策树算法中的信息增益

说到决策树就要知道如下概念:

  • :表示一个随机变量的复杂性或者不确定性。

假如双十一我要剁手买一件衣服,但是我一直犹豫着要不要买,我决定买这件事的不确定性()为2.6。

  • 条件熵:表示在直到某一条件后,某一随机变量的复杂性或不确定性。

我在看了这件衣服的评价后,我决定买衣服这件事的不确定性是1.2。
我在线下实体店试穿衣服后,我决定买衣服这件事的不确定性是0.9。

  • 信息增益:表示在知道某一条件后,某一随机变量的不确定性的减少量。

上面条件熵给出了两个:
一个是看了网上的评价,此时的信息增益是\(Gain_1 =2.6-1.2=1.4\)
另一个是线下试穿了衣服,此时的信息增益
\(Gain_2=2.6-0.9=1.7\)

很显然我在线下试穿衣服之后对于决定买这件衣服的不确定度下降更多,更通俗的说就是我试穿衣服之后买这件衣服的可能性更大了。所以如果有看买家评价线下试穿两个属性,首先应该选择线下试穿来构建内部节点。

信息熵计算公式

  • 符号\(x_i\)所具备的信息为: \[I(x_i) = -log_2p(x_i)\]
  • 所有类别所具有的信息熵(information entropy)\[H(X) = -\sum_{i=1}^{n}p(x_i)log_2p(x_i)\]







MARSGGBO原创





2017-8-24



目录
相关文章
|
2月前
|
机器学习/深度学习
为什么在二分类问题中使用交叉熵函数作为损失函数
为什么在二分类问题中使用交叉熵函数作为损失函数
37 2
|
1天前
|
机器学习/深度学习 JavaScript Python
熵、联合熵、相对熵、交叉熵、JS散度、互信息、条件熵
熵、联合熵、相对熵、交叉熵、JS散度、互信息、条件熵
5 1
|
26天前
特征选择方法——最佳子集回归、逐步回归
特征选择方法——最佳子集回归、逐步回归
|
28天前
|
前端开发
R语言中小样本违反异方差性的线性回归
R语言中小样本违反异方差性的线性回归
R语言中小样本违反异方差性的线性回归
|
12月前
“交叉熵”反向传播推导
“交叉熵”反向传播推导
|
12月前
|
机器学习/深度学习 算法
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-1
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-1
|
12月前
|
机器学习/深度学习
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-2
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-2
|
机器学习/深度学习 人工智能 JavaScript
【Pytorch神经网络理论篇】 21 信息熵与互信息:联合熵+条件熵+交叉熵+相对熵/KL散度/信息散度+JS散度
对抗神经网络(如DIM模型)及图神经网络(如DGI模型)中,使用互信息来作为无监督方式提取特征的方法。
517 0
|
BI Python
平均互信息与条件熵
平均互信息与条件熵
83 0
决策树中熵、条件熵、信息增益及信息增益比的python实现
决策树中熵、条件熵、信息增益及信息增益比的python实现
决策树中熵、条件熵、信息增益及信息增益比的python实现