Machine Learning | 机器学习简介
Machine Learning | (1) Scikit-learn与特征工程
Machine Learning | (2) sklearn数据集与机器学习组成
Machine Learning | (3) Scikit-learn的分类器算法-k-近邻
Machine Learning | (4) Scikit-learn的分类器算法-逻辑回归
Machine Learning | (5) Scikit-learn的分类器算法-朴素贝叶斯
Machine Learning | (6) Scikit-learn的分类器算法-性能评估
Machine Learning | (7) Scikit-learn的分类器算法-决策树(Decision Tree)
Machine Learning | (8) Scikit-learn的分类器算法-随机森林(Random Forest)
随机森林(Random Forest)
在机器学习中,随机森林(Random Forest)是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。利用相同的训练数搭建多个独立的分类模型,然后通过投票的方式,以少数服从多数的原则作出最终的分类决策。例如, 如果你训练了5个树, 其中有4个树的结果是True, 1个数的结果是False, 那么最终结果会是True.
在前面的决策当中我们提到,一个标准的决策树会根据每维特征对预测结果的影响程度进行排序,进而决定不同的特征从上至下构建分裂节点的顺序,如此以来,所有在随机森林中的决策树都会受这一策略影响而构建的完全一致,从而丧失的多样性。所以在随机森林分类器的构建过程中,每一棵决策树都会放弃这一固定的排序算法,转而随机选取特征。
学习算法
根据下列算法而建造每棵树:
用N来表示训练用例(样本)的个数,M表示特征数目。
输入特征数目m,用于确定决策树上一个节点的决策结果;其中m应远小于M。
从N个训练用例(样本)中以有放回抽样的方式,取样N次,形成一个训练集(即bootstrap取样),并用未抽到的用例(样本)作预测,评估其误差。
对于每一个节点,随机选择m个特征,决策树上每个节点的决定都是基于这些特征确定的。根据这m个特征,计算其最佳的分裂方式。
sklearn.ensemble,集成方法模块
sklearn.ensemble提供了准确性更加好的集成方法,里面包含了主要的RandomForestClassifier(随机森林)方法。
class sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None) """ :param n_estimators:integer,optional(default = 10) 森林里的树木数量。 :param criteria:string,可选(default =“gini”)分割特征的测量方法 :param max_depth:integer或None,可选(默认=无)树的最大深度 :param bootstrap:boolean,optional(default = True)是否在构建树时使用自举样本。 """
属性
classes_:shape = [n_classes]的数组或这样的数组的列表,类标签(单输出问题)或类标签数组列表(多输出问题)。
featureimportances:array = [n_features]的数组, 特征重要性(越高,功能越重要)。
方法
fit(X,y [,sample_weight]) 从训练集(X,Y)构建一棵树林。
predict(X) 预测X的类
score(X,y [,sample_weight]) 返回给定测试数据和标签的平均精度。
decision_path(X) 返回森林中的决策路径
泰坦尼克号乘客数据案例
这里我们通过决策树和随机森林对这个数据进行一个分类,判断乘客的生还。
import pandas as pd import sklearn from sklearn.cross_validation import train_test_split from sklearn.feature_extraction import DictVectorizer from sklearn.tree import DecisionTreeClassifier from sklearn.metrics import classification_report from sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifier titanic = pd.read_csv('http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt') #选取一些特征作为我们划分的依据 x = titanic[['pclass', 'age', 'sex']] y = titanic['survived'] # 填充缺失值 x['age'].fillna(x['age'].mean(), inplace=True) x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25) dt = DictVectorizer(sparse=False) print(x_train.to_dict(orient="record")) # 按行,样本名字为键,列名也为键,[{"1":1,"2":2,"3":3}] x_train = dt.fit_transform(x_train.to_dict(orient="record")) x_test = dt.fit_transform(x_test.to_dict(orient="record")) # 使用决策树 dtc = DecisionTreeClassifier() dtc.fit(x_train, y_train) dt_predict = dtc.predict(x_test) print(dtc.score(x_test, y_test)) print(classification_report(y_test, dt_predict, target_names=["died", "survived"])) # 使用随机森林 rfc = RandomForestClassifier() rfc.fit(x_train, y_train) rfc_y_predict = rfc.predict(x_test) print(rfc.score(x_test, y_test)) print(classification_report(y_test, rfc_y_predict, target_names=["died", "survived"]))