机器学习 - [集成学习]
Bagging算法的编程实现
李俊才 (jcLee95)的个人博客
已入驻阿里云博客
邮箱 :291148484@163.com
本文地址:
- https://developer.aliyun.com/article/
- https://blog.csdn.net/qq_28550263/article/details/115439639
【导读】本文主要介绍如何实现Bagging算法,作为一种集成算法我们假设其基分类器已经写好。本文代码中,直接使用sklearn中的决策树分类器等基分类器。
目 录
1. 回顾知识点
从训练集中均匀随机有放回地采样不同的子集且训练不同的基础模型
给定集合 D
通过从D中均匀随机的有放回采样m个样本构建 Di
(drawn with replacement, 取出放回, 有放回采样)
希望 Di 会 遗漏掉 D 中的某些样本
步骤:
- 每轮随机抽出一个训练集(漏掉一些样本)
- 通过这些样本训练一个子分类器(只用同一种弱学习器为基分类器)
- 一共T(参数)轮
- 等权重投票,票多的分类标签获胜
foriin [1, 2, …, T]: 从S中拔靴采样产生Dt在Dt上训练一个分类器Ht分类一个新的样本x∈X时,通过对Ht多数投票(等权重)
2. 代码实现
fromsklearn.treeimportDecisionTreeClassifier# 用作 基分类器的 决策树分类器fromsklearn.svmimportLinearSVC# 用作 基分类器的 线性支持向量机分类器fromsklearn.calibrationimportCalibratedClassifierCV# 将base_estimator拟合到交叉验证生成器的训练集上,并使用测试集进行校准。# 然后将每个折叠的概率取平均值进行预测。# 概率校准能# 将非概率分类模型的输出转化为概率、# 对概率分类模型的结果进行进一步修正importcopyimportnumpyasnpfromcollectionsimportCounterimportscipyimportsklearnfromsklearn.feature_extraction.textimportTfidfVectorizerword_model=TfidfVectorizer(stop_words='english') train_X=word_model.fit_transform(train_df['reviewText']) test_X=word_model.transform(test_df['reviewText']) train_X=scipy.sparse.hstack([train_X, train_df['overall'].values.reshape((-1, 1)) /5]) test_X=scipy.sparse.hstack([test_X, test_df['overall'].values.reshape((-1, 1)) /5]) X_train=train_X.tocsr() Y_train=train_df['label'] X_test=test_X.tocsr() defmajority(nparray): """ 选取一个数组中出现次数最多的元素及其索引并返回 """returnCounter(nparray).most_common()[0] classBaggingClassifier(object): """ a Bagging Classifier """def__init__(self, base_estimator="DCT", n_estimators=10, dct_parameters=None): """ Parameters ---------- base_estimator : str, default="DCT" 用于在一个随机抽取的子训练集上分类的分类器类型。 如果为"DCT",则程序将实例化一个`sklearn.tree.DecisionTreeClassifier`; 如果为"SVM",则程序将实例化一个`sklearn.svm.LinearSVC` 默认为`DecisionTreeClassifier`(决策树分类器). n_estimators : int, default=10 继承的基分类器的个数。 dct_parameters: 当基分类器为决策树时的参数. """self.base_estimator=base_estimatorself.n_estimators=n_estimatorsifdct_parameters==None: self.dct_parameters={"max_depth":10,"min_samples_split":2} else: self.dct_parameters=dct_parametersself.instance_base_estimator() self.sub_estimators= [] infos="------\nBaggingClassifier Parameters:\n 基分类器:"+str(base_estimator)+";\n 基分类器数量:"+str(n_estimators)+".\n------"print(infos) definstance_base_estimator(self): """ 实例化基分类器 """ifself.base_estimator=="DCT": clf=DecisionTreeClassifier( max_depth=self.dct_parameters["max_depth"], min_samples_split=self.dct_parameters["min_samples_split"], class_weight='balanced') elifself.base_estimator=="SVM": clf=LinearSVC() self.classifier=CalibratedClassifierCV(clf, cv=2, method='sigmoid') defsub_dataset(self,X_train,Y_train): """ 从当前dataset中随机取一部分返回 用作某一个子分类器(单独的基分类器)的训练集数据 """data_size=len(Y_train) index=np.random.choice(np.arange(data_size), data_size, replace=True) returnX_train[index],Y_train[index] deffit(self,X_train,Y_train): """ 训练 T=self.n_estimators 个基分类器 """fortinrange(self.n_estimators): print("正在训练第 i =",t+1,"个基分类器...") sub_train_X,sub_train_Y=self.sub_dataset(X_train,Y_train) # 抽取一个随机子数据集classifier=copy.copy(self.classifier) classifier.fit(sub_train_X, sub_train_Y) # 随机子数据集上训练基分类器self.sub_estimators.append(classifier) # 保存基分类器defpredict(self, X_test): """ 为X_test中的每条评论数据预测分类类别 """return [majority(one)[0] foroneinnp.array([clf.predict(X_test) forclfinself.sub_estimators]).T] defpredict_proba(self, X_test): """ 为X_test中的每条数据预测为高质量的概率 基分类器的predict_proba()方法,第i行第j列上的数值是模型预测第i个预测样本的标签为j的概率 """proba=np.zeros(X_test.shape[0]) # 以评论的数目生成一个全0一维向量,用于累加各基分类器对各评论预测为高质量概率和forclfinself.sub_estimators: # 对于每个基分类器proba=proba+clf.predict_proba(X_test)[:, 1] # 逐个累加所有基分类器在同一条评论预测为高质量的概率和average_proba=proba/self.n_estimators# 按个数算平均概率,作为整体预测为高质量的概率returnaverage_proba