相关概念
什么是决策树,它的工作原理是什么
决策树是一种基于树结构的分类算法,它通过构造一棵树来模拟决策过程。在决策树中,每个节点代表一个属性或特征,每个分支代表一个可能的取值,而每个叶子节点代表一个分类结果。决策树的工作原理是通过对数据集进行递归分割,将数据集划分为不同的子集,直到每个子集都属于同一类别或达到预定的停止条件。在分类时,将待分类样本从根节点开始,按照属性值依次向下遍历,直到到达叶子节点,即可得到分类结果。
构造剪枝
策树的构造过程中,有哪些重要的问题需要解决
有三个重要的问题需要解决:
- 将哪个属性作为根节点?
- 选择哪些属性作为后继节点?
- 什么时候停止并得到目标值?
对于第一个问题,我们需要选择一个最优的属性作为根节点,使得该属性能够最好地区分不同类别的样本。
对于第二个问题,我们需要选择一组最优的属性作为后继节点,使得每个子节点能够更好地区分不同类别的样本。
对于第三个问题,我们需要设置停止条件,以避免过拟合现象的发生,常见的停止条件包括达到预定的树深度、样本数量不足等。
如何对决策树进行剪枝,避免过拟合现象的发生
为了避免决策树出现过拟合现象,我们可以对决策树进行剪枝。剪枝可以分为预剪枝和后剪枝两种方法。
预剪枝是在决策树构造时就进行剪枝。方法是在构造的过程中对节点进行评估,如果对某个节点进行划分,在验证集中不能带来准确性的提升,那么对这个节点进行划分就没有意义,这时就会把当前节点作为叶节点,不对其进行划分。
后剪枝是在生成决策树之后再进行剪枝,通常会从决策树的叶节点开始,逐层向上对每个节点进行评估。如果剪掉这个节点子树,与保留该节点子树在分类准确性上差别不大,或者剪掉该节点子树,能在验证集中带来准确性的提升,那么就可以把该节点子树进行剪枝。方法是用这个节点子树的叶子节点来替代该节点,类标记为这个节点子树中最频繁的那个类。
无论是预剪枝还是后剪枝,剪枝的目的都是为了减少决策树的复杂度,避免过拟合现象的发生,提高决策树的泛化能力。
决策树算法分类
ID3 、C4.5和 CART 算法分类对比
- 节点划分指标:
- ID3算法:信息增益
- C4.5算法:信息增益率
- CART算法:分类树使用基尼系数,回归树使用最小二乘偏差或最小绝对偏差
- 树的结构:
- ID3和C4.5算法:多叉树
- CART算法:二叉树
- 数据类型:
- ID3算法:仅处理离散型数据
- C4.5算法:处理连续型和离散型数据
- CART算法:处理连续型和离散型数据,同时适用于多分类和回归问题
- 应用场景:
- ID3算法:基本的决策树算法,适用于简单的分类问题
- C4.5算法:改进了ID3算法,适用于更复杂的分类问题,可以处理连续型数据和缺失值
- CART算法:更加通用的决策树算法,适用于分类和回归问题,可以处理连续型数据和多分类问题
简述CART 算法
CART算法是一种决策树算法,全称为Classification And Regression Tree,中文叫做分类回归树。CART算法可以生成二叉树,同时可以作分类树和回归树。CART算法的核心思想是通过对样本数据进行递归的二元分裂,构建一棵二叉树,使得每个叶子节点对应一个类别或一个数值。在构建决策树的过程中,CART算法采用基尼系数作为属性选择的指标,选择基尼系数最小的属性进行划分。CART算法的优点是可以处理连续型和离散型的数据,同时可以处理多分类和回归问题。CART算法的缺点是容易过拟合,需要进行剪枝处理。
决策树的纯度概念是指在某个节点上,样本的类别越单一,纯度越高。选择最佳属性进行划分的方法是通过计算属性的纯度增益或纯度减少程度,选择纯度增益或减少程度最大的属性作为划分属性。在CART算法中,属性选择的指标采用的是基尼系数
Titanic 乘客生存预测
业务流程
数据解释
代码实现
import pandas as pd from sklearn.feature_extraction import DictVectorizer from sklearn.tree import DecisionTreeClassifier import numpy as np from sklearn.model_selection import cross_val_score # 数据加载 train_data = pd.read_csv('./train.csv') test_data = pd.read_csv('./test.csv') # 数据探索 print(train_data.info()) print('-'*30) print(train_data.describe()) print('-'*30) print(train_data.describe(include=['O'])) print('-'*30) print(train_data.head()) print('-'*30) print(train_data.tail()) # 数据清洗 # 使用平均年龄来填充年龄中的 nan 值 train_data['Age'].fillna(train_data['Age'].mean(), inplace=True) test_data['Age'].fillna(test_data['Age'].mean(),inplace=True) # 使用票价的均值填充票价中的 nan 值 train_data['Fare'].fillna(train_data['Fare'].mean(), inplace=True) test_data['Fare'].fillna(test_data['Fare'].mean(),inplace=True) print(train_data['Embarked'].value_counts()) # 使用登录最多的港口来填充登录港口的 nan 值 train_data['Embarked'].fillna('S', inplace=True) test_data['Embarked'].fillna('S',inplace=True) # 特征选择 features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked'] train_features = train_data[features] train_labels = train_data['Survived'] # test_features已经从test_data中提取出来了 test_features = test_data[features] dvec=DictVectorizer(sparse=False) # dvec.fit_transform 用于训练和转换数据,将数据转换为字典形式并进行特征提取和向量化处理。这个方法会返回处理后的特征矩阵。 # dvec.transform 方法只进行数据转换,即将新数据转换为字典形式并进行特征提取和向量化处理,这个方法只返回转换后的特征矩阵,不进行训练 train_features=dvec.fit_transform(train_features.to_dict(orient='records')) print(dvec.feature_names_) # 构造 ID3 决策树 clf = DecisionTreeClassifier(criterion='entropy') # 决策树训练 clf.fit(train_features, train_labels) # 将其转换为NumPy数组或字典格式 # dvec.transform是将数据集进行特征向量化的方法,它将数据集中的非数值型特征转换为数值型特征,以便于分类器等机器学习算法的处理 test_features=dvec.transform(test_features.to_dict(orient='records')) # 决策树预测 pred_labels = clf.predict(test_features) # 得到决策树准确率 acc_decision_tree = round(clf.score(train_features, train_labels), 6) print(u'score 准确率为 %.4lf' % acc_decision_tree) # 使用K折交叉验证 统计决策树准确率 # 使用score函数对训练集的准确率进行统计,正确率会接近于100%(如上结果为98.2%),但是这并不能代表决策树分类器的准确率。 # 因为我们没有测试集的实际结果,所以无法用测试集的预测结果与实际结果做对比。 # 而使用K折交叉验证可以更好地评估模型的性能,因为它可以使用所有的数据来进行训练和测试,从而更好地反映模型的性能。 print(u'cross_val_score准确率为 %.4lf' % np.mean(cross_val_score(clf, train_features, train_labels, cv=10)))
问题思考
构造特征向量时使用了 DictVectorizer 类,使用fit_transform 函数将特征向量转化为特征值矩阵。DictVectorizer 类同时也提供 transform 函数,那么这两个函数有什么区别?
transform和fit_transform虽然结果相同,但是不能互换。转换过程中,fit_transform函数会学习特征的取值范围,并将特征转换为数值型特征。transform函数不会在转化过程中学习特征的取值范围,而是使用之前学习到的特征取值范围进行转换。
数据可视化
Graphviz 可视化工具帮我们把决策树呈现出来
Python可视化工具库实战_数据与后端架构提升之路的博客-CSDN博客
实战总结
1. 特征选择是分类模型好坏的关键。选择什么样的特征,以及对应的特征值矩阵,决定了分类
模型的好坏。通常情况下,特征值不都是数值类型,可以使用 DictVectorizer 类进行转
化;
2. 模型准确率需要考虑是否有测试集的实际结果可以做对比,当测试集没有真实结果可以对比
时,需要使用 K 折交叉验证 cross_val_score;
3. Graphviz 可视化工具可以很方便地将决策模型呈现出来,帮助你更好理解决策树的构建。