✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。
🍎个人主页:Matlab科研工作室
🍊个人信条:格物致知。
更多Matlab仿真内容点击👇
⛄ 内容介绍
研究了多类别样本数据集的分类,针对传统的"一对一"或"一对多"BP-Ada-Boost算法,训练时间开销随着训练样本数以及训练样本种类的增加急剧增加,使其实际应用十分受限,尤其不适用于大规模数据分类的问题,提出了将多分类BP神经网络与使用多类分类指数损失函数的逐步叠加建模(SAMME)算法相结合以构造AdaBoost强发类的Multi-BP AdaBoost算法,实现模型信息的有效利用与融合增强.对传统"一对多"BP-AdaBoost算法和Multi-BP AdaBoost算法进行了对比试验,结果表明,在相同测试情况下,后者有效降低了BP-AdaBoost训练过程中的时间开销.
⛄ 完整代码
%% 该代码为基于BP-Adaboost的强分类器分类
%% 清空环境变量
clc
clear
close all
%% 下载数据
load data input_train output_train input_test output_test
%% 权重初始化
[mm,nn]=size(input_train);
D(1,:)=ones(1,nn)/nn;
%% 弱分类器分类
K=10;
for i=1:K
%训练样本归一化
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);
error(i)=0;
%BP神经网络构建
net=newff(inputn,outputn,6);
net.trainParam.epochs=5;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00004;
%BP神经网络训练
net=train(net,inputn,outputn);
%训练数据预测
an1=sim(net,inputn);
test_simu1(i,:)=mapminmax('reverse',an1,outputps);
%测试数据预测
inputn_test =mapminmax('apply',input_test,inputps);
an=sim(net,inputn_test);
test_simu(i,:)=mapminmax('reverse',an,outputps);
%统计输出效果
kk1=find(test_simu1(i,:)>0);
kk2=find(test_simu1(i,:)<0);
aa(kk1)=1;
aa(kk2)=-1;
%统计错误样本数
for j=1:nn
if aa(j)~=output_train(j);
error(i)=error(i)+D(i,j);
end
end
%弱分类器i权重
at(i)=0.5*log((1-error(i))/error(i));
%更新D值
for j=1:nn
D(i+1,j)=D(i,j)*exp(-at(i)*aa(j)*test_simu1(i,j));
end
%D值归一化
Dsum=sum(D(i+1,:));
D(i+1,:)=D(i+1,:)/Dsum;
end
%% 强分类器分类结果
output=sign(at*test_simu);
%% 分类结果统计
%统计强分类器每类分类错误个数
kkk1=0;
kkk2=0;
for j=1:350
if output(j)==1
if output(j)~=output_test(j)
kkk1=kkk1+1;
end
end
if output(j)==-1
if output(j)~=output_test(j)
kkk2=kkk2+1;
end
end
end
kkk1
kkk2
disp('第一类分类错误 第二类分类错误 总错误');
% 窗口显示
disp([kkk1 kkk2 kkk1+kkk2]);
figure
plot(output,'ro')
hold on
plot(output_test,'gs')
xlabel('样本')
ylabel('类别')
%统计弱分离器效果
for i=1:K
error1(i)=0;
kk1=find(test_simu(i,:)>0);
kk2=find(test_simu(i,:)<0);
aa(kk1)=1;
aa(kk2)=-1;
for j=1:350
if aa(j)~=output_test(j);
error1(i)=error1(i)+1;
end
end
end
disp('统计弱分类器分类效果');
error1
disp('强分类器分类误差率')
(kkk1+kkk2)/350
disp('弱分类器分类误差率')
(sum(error1)/(K*350))
⛄ 运行结果
⛄ 参考文献
[1] 韩韬. 基于改进PSO的BP_Adaboost算法的优化与改进[D]. 桂林理工大学, 2014.
[2] 吕雁飞, 侯子骄, 张凯. 多分类BP-AdaBoost算法研究与应用[J]. 高技术通讯, 2015(5):8.
[3] 贾万丽, 刘洋, 张乐乐. 基于BP神经网络与Adaboost算法的储层分类[C]// 2019年中国地球科学联合学术年会. 0.
[4] 董庆伟. 基于Adaboost算法的不平衡数据集分类效果研究[J]. 长春师范大学学报, 2022, 41(6):4.