机器学习 - [集成学习] - Bagging算法的编程实现

简介: 本文介绍集成学习中的 Bagging 算法,并使用 Python 语言手写实现

机器学习 - [集成学习]

Bagging算法的编程实现


李俊才 (jcLee95)的个人博客

已入驻阿里云博客

邮箱 :291148484@163.com
本文地址
- https://developer.aliyun.com/article/
- https://blog.csdn.net/qq_28550263/article/details/115439639

【导读】本文主要介绍如何实现Bagging算法,作为一种集成算法我们假设其基分类器已经写好。本文代码中,直接使用sklearn中的决策树分类器等基分类器。


目 录


1. 回顾知识点

2. 代码实现


1. 回顾知识点

从训练集中均匀随机有放回地采样不同的子集且训练不同的基础模型

给定集合 D

通过从D中均匀随机的有放回采样m个样本构建 Di

(drawn with replacement, 取出放回, 有放回采样)

希望 Di 会 遗漏掉 D 中的某些样本

步骤:

  • 每轮随机抽出一个训练集(漏掉一些样本)
  • 通过这些样本训练一个子分类器(只用同一种弱学习器为基分类器)
  • 一共T(参数)轮
  • 等权重投票,票多的分类标签获胜
foriin [1, 2, , T]:      
从S中拔靴采样产生DtDt上训练一个分类器Ht分类一个新的样本x∈X时,通过对Ht多数投票(等权重)

2. 代码实现

fromsklearn.treeimportDecisionTreeClassifier# 用作 基分类器的 决策树分类器fromsklearn.svmimportLinearSVC# 用作 基分类器的 线性支持向量机分类器fromsklearn.calibrationimportCalibratedClassifierCV# 将base_estimator拟合到交叉验证生成器的训练集上,并使用测试集进行校准。# 然后将每个折叠的概率取平均值进行预测。# 概率校准能# 将非概率分类模型的输出转化为概率、# 对概率分类模型的结果进行进一步修正importcopyimportnumpyasnpfromcollectionsimportCounterimportscipyimportsklearnfromsklearn.feature_extraction.textimportTfidfVectorizerword_model=TfidfVectorizer(stop_words='english')
train_X=word_model.fit_transform(train_df['reviewText'])
test_X=word_model.transform(test_df['reviewText']) 
train_X=scipy.sparse.hstack([train_X, train_df['overall'].values.reshape((-1, 1)) /5])
test_X=scipy.sparse.hstack([test_X, test_df['overall'].values.reshape((-1, 1)) /5])
X_train=train_X.tocsr()
Y_train=train_df['label']
X_test=test_X.tocsr()
defmajority(nparray):
"""    选取一个数组中出现次数最多的元素及其索引并返回    """returnCounter(nparray).most_common()[0]
classBaggingClassifier(object):
"""    a Bagging Classifier    """def__init__(self, 
base_estimator="DCT", 
n_estimators=10,
dct_parameters=None):
"""        Parameters        ----------        base_estimator : str, default="DCT"            用于在一个随机抽取的子训练集上分类的分类器类型。            如果为"DCT",则程序将实例化一个`sklearn.tree.DecisionTreeClassifier`;            如果为"SVM",则程序将实例化一个`sklearn.svm.LinearSVC`            默认为`DecisionTreeClassifier`(决策树分类器).        n_estimators : int, default=10            继承的基分类器的个数。        dct_parameters: 当基分类器为决策树时的参数.        """self.base_estimator=base_estimatorself.n_estimators=n_estimatorsifdct_parameters==None:
self.dct_parameters={"max_depth":10,"min_samples_split":2}
else:
self.dct_parameters=dct_parametersself.instance_base_estimator()
self.sub_estimators= []
infos="------\nBaggingClassifier Parameters:\n 基分类器:"+str(base_estimator)+";\n 基分类器数量:"+str(n_estimators)+".\n------"print(infos)
definstance_base_estimator(self):
"""        实例化基分类器        """ifself.base_estimator=="DCT":
clf=DecisionTreeClassifier(
max_depth=self.dct_parameters["max_depth"],
min_samples_split=self.dct_parameters["min_samples_split"],
class_weight='balanced')
elifself.base_estimator=="SVM":
clf=LinearSVC()
self.classifier=CalibratedClassifierCV(clf, cv=2, method='sigmoid')
defsub_dataset(self,X_train,Y_train):
"""        从当前dataset中随机取一部分返回        用作某一个子分类器(单独的基分类器)的训练集数据        """data_size=len(Y_train)
index=np.random.choice(np.arange(data_size), data_size, replace=True)
returnX_train[index],Y_train[index]
deffit(self,X_train,Y_train):
"""        训练 T=self.n_estimators 个基分类器        """fortinrange(self.n_estimators):
print("正在训练第 i =",t+1,"个基分类器...")
sub_train_X,sub_train_Y=self.sub_dataset(X_train,Y_train)  # 抽取一个随机子数据集classifier=copy.copy(self.classifier)
classifier.fit(sub_train_X, sub_train_Y)                     # 随机子数据集上训练基分类器self.sub_estimators.append(classifier)                       # 保存基分类器defpredict(self, X_test):
"""        为X_test中的每条评论数据预测分类类别        """return [majority(one)[0] foroneinnp.array([clf.predict(X_test) forclfinself.sub_estimators]).T]
defpredict_proba(self, X_test):
"""        为X_test中的每条数据预测为高质量的概率        基分类器的predict_proba()方法,第i行第j列上的数值是模型预测第i个预测样本的标签为j的概率        """proba=np.zeros(X_test.shape[0])                       # 以评论的数目生成一个全0一维向量,用于累加各基分类器对各评论预测为高质量概率和forclfinself.sub_estimators:                         # 对于每个基分类器proba=proba+clf.predict_proba(X_test)[:, 1]     # 逐个累加所有基分类器在同一条评论预测为高质量的概率和average_proba=proba/self.n_estimators# 按个数算平均概率,作为整体预测为高质量的概率returnaverage_proba
目录
相关文章
|
4月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。
|
5月前
|
机器学习/深度学习 存储 Kubernetes
【重磅发布】AllData数据中台核心功能:机器学习算法平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
197 6
|
7月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于机器学习的人脸识别算法matlab仿真,对比GRNN,PNN,DNN以及BP四种网络
本项目展示了人脸识别算法的运行效果(无水印),基于MATLAB2022A开发。核心程序包含详细中文注释及操作视频。理论部分介绍了广义回归神经网络(GRNN)、概率神经网络(PNN)、深度神经网络(DNN)和反向传播(BP)神经网络在人脸识别中的应用,涵盖各算法的结构特点与性能比较。
|
8月前
|
机器学习/深度学习 算法 网络安全
CCS 2024:如何严格衡量机器学习算法的隐私泄露? ETH有了新发现
在2024年CCS会议上,苏黎世联邦理工学院的研究人员提出,当前对机器学习隐私保护措施的评估可能存在严重误导。研究通过LiRA攻击评估了五种经验性隐私保护措施(HAMP、RelaxLoss、SELENA、DFKD和SSL),发现现有方法忽视最脆弱数据点、使用较弱攻击且未与实际差分隐私基线比较。结果表明这些措施在更强攻击下表现不佳,而强大的差分隐私基线则提供了更好的隐私-效用权衡。
202 14
|
7月前
|
人工智能 编解码 算法
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
114 0
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
解锁机器学习的新维度:元学习的算法与应用探秘
元学习作为一个重要的研究领域,正逐渐在多个应用领域展现其潜力。通过理解和应用元学习的基本算法,研究者可以更好地解决在样本不足或任务快速变化的情况下的学习问题。随着研究的深入,元学习有望在人工智能的未来发展中发挥更大的作用。
|
14天前
|
机器学习/深度学习 算法 新能源
【优化调度】基于matlab粒子群算法求解水火电经济调度优化问题研究(Matlab代码实现)
【优化调度】基于matlab粒子群算法求解水火电经济调度优化问题研究(Matlab代码实现)
|
16天前
|
算法 机器人 定位技术
基于机器视觉和Dijkstra算法的平面建筑群地图路线规划matlab仿真
本程序基于机器视觉与Dijkstra算法,实现平面建筑群地图的路径规划。通过MATLAB 2022A读取地图图像,识别障碍物并进行路径搜索,支持鼠标选择起点与终点,最终显示最优路径及长度,适用于智能导航与机器人路径规划场景。
|
17天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化的XGBoost时间序列预测算法matlab仿真
本程序基于Matlab 2024b实现,结合粒子群优化(PSO)与XGBoost算法,用于时间序列预测。通过PSO优化XGBoost超参数,提升预测精度。程序包含完整注释与操作视频,运行后生成预测效果图及性能评估指标RMSE。

热门文章

最新文章