决策树算法和实际应用

简介: 决策树算法和实际应用

相关概念

什么是决策树,它的工作原理是什么

决策树是一种基于树结构的分类算法,它通过构造一棵树来模拟决策过程。在决策树中,每个节点代表一个属性或特征,每个分支代表一个可能的取值,而每个叶子节点代表一个分类结果。决策树的工作原理是通过对数据集进行递归分割,将数据集划分为不同的子集,直到每个子集都属于同一类别或达到预定的停止条件。在分类时,将待分类样本从根节点开始,按照属性值依次向下遍历,直到到达叶子节点,即可得到分类结果。

构造剪枝

策树的构造过程中,有哪些重要的问题需要解决

有三个重要的问题需要解决:

  1. 将哪个属性作为根节点?
  2. 选择哪些属性作为后继节点?
  3. 什么时候停止并得到目标值?

对于第一个问题,我们需要选择一个最优的属性作为根节点,使得该属性能够最好地区分不同类别的样本。

对于第二个问题,我们需要选择一组最优的属性作为后继节点,使得每个子节点能够更好地区分不同类别的样本。

对于第三个问题,我们需要设置停止条件,以避免过拟合现象的发生,常见的停止条件包括达到预定的树深度、样本数量不足等。

如何对决策树进行剪枝,避免过拟合现象的发生

为了避免决策树出现过拟合现象,我们可以对决策树进行剪枝。剪枝可以分为预剪枝后剪枝两种方法。

预剪枝是在决策树构造时就进行剪枝。方法是在构造的过程中对节点进行评估,如果对某个节点进行划分,在验证集中不能带来准确性的提升,那么对这个节点进行划分就没有意义,这时就会把当前节点作为叶节点,不对其进行划分。

后剪枝是在生成决策树之后再进行剪枝,通常会从决策树的叶节点开始,逐层向上对每个节点进行评估。如果剪掉这个节点子树,与保留该节点子树在分类准确性上差别不大,或者剪掉该节点子树,能在验证集中带来准确性的提升,那么就可以把该节点子树进行剪枝。方法是用这个节点子树的叶子节点来替代该节点,类标记为这个节点子树中最频繁的那个类。

无论是预剪枝还是后剪枝,剪枝的目的都是为了减少决策树的复杂度,避免过拟合现象的发生,提高决策树的泛化能力。

决策树算法分类

ID3 、C4.5和 CART 算法分类对比

  • 节点划分指标:
  • ID3算法:信息增益
  • C4.5算法:信息增益率
  • CART算法:分类树使用基尼系数,回归树使用最小二乘偏差或最小绝对偏差
  • 树的结构:
  • ID3和C4.5算法:多叉树
  • CART算法:二叉树
  • 数据类型:
  • ID3算法:仅处理离散型数据
  • C4.5算法:处理连续型和离散型数据
  • CART算法:处理连续型和离散型数据,同时适用于多分类和回归问题
  • 应用场景:
  • ID3算法:基本的决策树算法,适用于简单的分类问题
  • C4.5算法:改进了ID3算法,适用于更复杂的分类问题,可以处理连续型数据和缺失值
  • CART算法:更加通用的决策树算法,适用于分类和回归问题,可以处理连续型数据和多分类问题

简述CART 算法

CART算法是一种决策树算法,全称为Classification And Regression Tree,中文叫做分类回归树。CART算法可以生成二叉树,同时可以作分类树和回归树。CART算法的核心思想是通过对样本数据进行递归的二元分裂,构建一棵二叉树,使得每个叶子节点对应一个类别或一个数值。在构建决策树的过程中,CART算法采用基尼系数作为属性选择的指标,选择基尼系数最小的属性进行划分。CART算法的优点是可以处理连续型和离散型的数据,同时可以处理多分类和回归问题。CART算法的缺点是容易过拟合,需要进行剪枝处理。

决策树的纯度概念是指在某个节点上,样本的类别越单一,纯度越高。选择最佳属性进行划分的方法是通过计算属性的纯度增益或纯度减少程度,选择纯度增益或减少程度最大的属性作为划分属性。在CART算法中,属性选择的指标采用的是基尼系数

Titanic 乘客生存预测

业务流程

数据解释

代码实现

import pandas as pd
from sklearn.feature_extraction import DictVectorizer
from sklearn.tree import DecisionTreeClassifier
import numpy as np
from sklearn.model_selection import cross_val_score
# 数据加载
train_data = pd.read_csv('./train.csv')
test_data = pd.read_csv('./test.csv')
# 数据探索
print(train_data.info())
print('-'*30)
print(train_data.describe())
print('-'*30)
print(train_data.describe(include=['O']))
print('-'*30)
print(train_data.head())
print('-'*30)
print(train_data.tail())
# 数据清洗
# 使用平均年龄来填充年龄中的 nan 值
train_data['Age'].fillna(train_data['Age'].mean(), inplace=True)
test_data['Age'].fillna(test_data['Age'].mean(),inplace=True)
# 使用票价的均值填充票价中的 nan 值
train_data['Fare'].fillna(train_data['Fare'].mean(), inplace=True)
test_data['Fare'].fillna(test_data['Fare'].mean(),inplace=True)
print(train_data['Embarked'].value_counts())
# 使用登录最多的港口来填充登录港口的 nan 值
train_data['Embarked'].fillna('S', inplace=True)
test_data['Embarked'].fillna('S',inplace=True)
# 特征选择
features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked']
train_features = train_data[features]
train_labels = train_data['Survived']
# test_features已经从test_data中提取出来了
test_features = test_data[features]
dvec=DictVectorizer(sparse=False)
# dvec.fit_transform 用于训练和转换数据,将数据转换为字典形式并进行特征提取和向量化处理。这个方法会返回处理后的特征矩阵。
# dvec.transform 方法只进行数据转换,即将新数据转换为字典形式并进行特征提取和向量化处理,这个方法只返回转换后的特征矩阵,不进行训练
train_features=dvec.fit_transform(train_features.to_dict(orient='records'))
print(dvec.feature_names_)
# 构造 ID3 决策树
clf = DecisionTreeClassifier(criterion='entropy')
# 决策树训练
clf.fit(train_features, train_labels)
# 将其转换为NumPy数组或字典格式
# dvec.transform是将数据集进行特征向量化的方法,它将数据集中的非数值型特征转换为数值型特征,以便于分类器等机器学习算法的处理
test_features=dvec.transform(test_features.to_dict(orient='records'))
# 决策树预测
pred_labels = clf.predict(test_features)
# 得到决策树准确率
acc_decision_tree = round(clf.score(train_features, train_labels), 6)
print(u'score 准确率为 %.4lf' % acc_decision_tree)
# 使用K折交叉验证  统计决策树准确率
# 使用score函数对训练集的准确率进行统计,正确率会接近于100%(如上结果为98.2%),但是这并不能代表决策树分类器的准确率。
# 因为我们没有测试集的实际结果,所以无法用测试集的预测结果与实际结果做对比。
# 而使用K折交叉验证可以更好地评估模型的性能,因为它可以使用所有的数据来进行训练和测试,从而更好地反映模型的性能。
print(u'cross_val_score准确率为 %.4lf' % np.mean(cross_val_score(clf, train_features, train_labels, cv=10)))

问题思考

构造特征向量时使用了 DictVectorizer 类,使用fit_transform 函数将特征向量转化为特征值矩阵。DictVectorizer 类同时也提供 transform 函数,那么这两个函数有什么区别?

transform和fit_transform虽然结果相同,但是不能互换。转换过程中,fit_transform函数会学习特征的取值范围,并将特征转换为数值型特征。transform函数不会在转化过程中学习特征的取值范围,而是使用之前学习到的特征取值范围进行转换。

数据可视化

Graphviz 可视化工具帮我们把决策树呈现出来

Python可视化工具库实战_数据与后端架构提升之路的博客-CSDN博客

实战总结

1.   特征选择是分类模型好坏的关键。选择什么样的特征,以及对应的特征值矩阵,决定了分类

模型的好坏。通常情况下,特征值不都是数值类型,可以使用 DictVectorizer 类进行转

化;

2.   模型准确率需要考虑是否有测试集的实际结果可以做对比,当测试集没有真实结果可以对比

时,需要使用 K 折交叉验证 cross_val_score;

3. Graphviz 可视化工具可以很方便地将决策模型呈现出来,帮助你更好理解决策树的构建。


相关文章
|
1月前
|
存储 算法 Java
解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用
在Java中,Set接口以其独特的“无重复”特性脱颖而出。本文通过解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用。
41 3
|
13天前
|
算法
树的遍历算法有哪些?
不同的遍历算法适用于不同的应用场景。深度优先搜索常用于搜索、路径查找等问题;广度优先搜索则在图的最短路径、层次相关的问题中较为常用;而二叉搜索树的遍历在数据排序、查找等方面有重要应用。
22 2
|
16天前
|
机器学习/深度学习 JSON 算法
二叉树遍历算法的应用场景有哪些?
【10月更文挑战第29天】二叉树遍历算法作为一种基础而重要的算法,在许多领域都有着不可或缺的应用,它为解决各种复杂的问题提供了有效的手段和思路。随着计算机科学的不断发展,二叉树遍历算法也在不断地被优化和扩展,以适应新的应用场景和需求。
24 0
|
27天前
|
存储 算法 搜索推荐
这些算法在实际应用中有哪些具体案例呢
【10月更文挑战第19天】这些算法在实际应用中有哪些具体案例呢
29 1
|
1月前
|
机器学习/深度学习 人工智能 算法
[大语言模型-算法优化] 微调技术-LoRA算法原理及优化应用详解
[大语言模型-算法优化] 微调技术-LoRA算法原理及优化应用详解
75 0
[大语言模型-算法优化] 微调技术-LoRA算法原理及优化应用详解
|
17天前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的决策树算法
【10月更文挑战第29天】本文将深入浅出地介绍决策树算法,一种在机器学习中广泛使用的分类和回归方法。我们将从基础概念出发,逐步深入到算法的实际应用,最后通过一个代码示例来直观展示如何利用决策树解决实际问题。无论你是机器学习的初学者还是希望深化理解的开发者,这篇文章都将为你提供有价值的见解和指导。
|
27天前
|
监控 算法 数据挖掘
HyperLogLog算法有哪些应用场景呢
【10月更文挑战第19天】HyperLogLog算法有哪些应用场景呢
15 0
|
1月前
|
机器学习/深度学习 算法 数据建模
计算机前沿技术-人工智能算法-生成对抗网络-算法原理及应用实践
计算机前沿技术-人工智能算法-生成对抗网络-算法原理及应用实践
30 0
|
28天前
|
算法 安全 数据安全/隐私保护
基于game-based算法的动态频谱访问matlab仿真
本算法展示了在认知无线电网络中,通过游戏理论优化动态频谱访问,提高频谱利用率和物理层安全性。程序运行效果包括负载因子、传输功率、信噪比对用户效用和保密率的影响分析。软件版本:Matlab 2022a。完整代码包含详细中文注释和操作视频。
|
13天前
|
算法 数据挖掘 数据安全/隐私保护
基于FCM模糊聚类算法的图像分割matlab仿真
本项目展示了基于模糊C均值(FCM)算法的图像分割技术。算法运行效果良好,无水印。使用MATLAB 2022a开发,提供完整代码及中文注释,附带操作步骤视频。FCM算法通过隶属度矩阵和聚类中心矩阵实现图像分割,适用于灰度和彩色图像,广泛应用于医学影像、遥感图像等领域。