【FNN分类】基于粒子群结合引力搜索算法优化前向反馈神经网络实现数据分类附matlab代码

简介: 【FNN分类】基于粒子群结合引力搜索算法优化前向反馈神经网络实现数据分类附matlab代码

 1 内容介绍

引力搜索算法(GSA)是一种基于引力定律和质量相互作用的新型启发式优化方法。实践证明,该算法具有较好的全局最优搜索能力,但在最后一次迭代中存在搜索速度较慢的问题。这项工作提出了粒子群优化 (PSO) 和 GSA 的混合体来解决上述问题。在本文中,GSA 和 PSOGSA 被用作前馈神经网络 (FNN) 的新训练方法,以研究这些算法在减少陷入局部最小值和当前进化学习算法收敛速度慢的问题方面的效率。将结果与标准的基于 PSO 的 FNN 学习算法进行比较。还研究了使用 PSO、GSA 和 PSOGSA 训练的 FNN 的准确度。实验结果表明,在收敛速度和避免局部最小值方面,PSOGSA 在训练 FNN 方面优于 PSO 和 GSA。还证明了用 PSOGSA 训练的 FNN 比用 GSA 训练的 FNN 具有更好的准确性。

image.gif编辑

2 仿真代码

%% -------------------------------------------------------------------------

clc

clear all

close all

%% ////////////////////////////////////////////////////Data set preparation/////////////////////////////////////////////

load iris.txt

x=sortrows(iris,2);

H2=x(1:150,1);

H3=x(1:150,2);

H4=x(1:150,3);

H5=x(1:150,4);

T=x(1:150,5);

H2=H2';

[xf,PS] = mapminmax(H2);

I2(:,1)=xf;

H3=H3';

[xf,PS2] = mapminmax(H3);

I2(:,2)=xf;

H4=H4';

[xf,PS3] = mapminmax(H4);

I2(:,3)=xf;

H5=H5';

[xf,PS4] = mapminmax(H5);

I2(:,4)=xf;

Thelp=T;

T=T';

[yf,PS5]= mapminmax(T);

T=yf;

T=T';

%% /////////////////////////////////////////////FNN initial parameters//////////////////////////////////////

HiddenNodes=15;       %Number of hidden codes

Dim=8*HiddenNodes+3;  %Dimension of masses in GSA

TrainingNO=150;       %Number of training samples

%% ////////////////////////////////////////////////////////GSA/////////////////////////////////////////////

%Configurations and initializations

noP = 30;             %Number of masses

Max_iteration  = 500;  %Maximum number of iteration

w=2;              %Inirtia weight

wMax=0.9;         %Max inirtia weight

wMin=0.5;         %Min inirtia weight

CurrentFitness =zeros(noP,1);

G0=1; %Gravitational constant

CurrentPosition = rand(noP,Dim); %Postition vector

Velocity = .3*randn(noP,Dim) ; %Velocity vector

acceleration=zeros(noP,Dim); %Acceleration vector

mass(noP)=0; %Mass vector

force=zeros(noP,Dim);%Force vector

%Vectores for saving the location and MSE of the best mass

gBestScore=inf;

gBest=zeros(1,Dim);

ConvergenceCurve=zeros(1,Max_iteration); %Convergence vector

%Main loop

Iteration = 0 ;                

while  ( Iteration < Max_iteration )

   Iteration = Iteration + 1;  

   G=G0*exp(-20*Iteration/Max_iteration); %Equation (3.3)

   force=zeros(noP,Dim);

   mass(noP)=0;

   acceleration=zeros(noP,Dim);

%Calculate MSEs

for i = 1:noP

       for ww=1:(7*HiddenNodes)

           Weights(ww)=CurrentPosition(i,ww);

       end

       for bb=7*HiddenNodes+1:Dim

           Biases(bb-(7*HiddenNodes))=CurrentPosition(i,bb);

       end              

       fitness=0;

       for pp=1:TrainingNO

           actualvalue=My_FNN(4,HiddenNodes,3,Weights,Biases,I2(pp,1),I2(pp,2), I2(pp,3),I2(pp,4));

           if(T(pp)==-1)

               fitness=fitness+(1-actualvalue(1))^2;

               fitness=fitness+(0-actualvalue(2))^2;

               fitness=fitness+(0-actualvalue(3))^2;

           end

           if(T(pp)==0)

               fitness=fitness+(0-actualvalue(1))^2;

               fitness=fitness+(1-actualvalue(2))^2;

               fitness=fitness+(0-actualvalue(3))^2;  

           end

           if(T(pp)==1)

               fitness=fitness+(0-actualvalue(1))^2;

               fitness=fitness+(0-actualvalue(2))^2;

               fitness=fitness+(1-actualvalue(3))^2;              

           end

       end

       fitness=fitness/TrainingNO; %Equation (5.4)

       CurrentFitness(i) = fitness;    

       

       if(gBestScore>fitness)

           gBestScore=fitness;

           gBest=CurrentPosition(i,:);

       end  

end

best=min(CurrentFitness);%Equation (3.10)

worst=max(CurrentFitness);%Equation (3.11)

for i=1:noP

   mass(i)=(CurrentFitness(i)-0.99*worst)/(best-worst);%Equation (3.9)

end

for i=1:noP

   mass(i)=mass(i)*5/sum(mass);%Equation (3.14)  

   

end

%Calculate froces

for i=1:noP

   for j=1:Dim

       for k=1:noP

           if(CurrentPosition(k,j)~=CurrentPosition(i,j))

               %Equation (3.5)

               force(i,j)=force(i,j)+ rand()*G*mass(k)*mass(i)*(CurrentPosition(k,j)-CurrentPosition(i,j))/abs(CurrentPosition(k,j)-CurrentPosition(i,j));

               

           end

       end

   end

end

%Calculate a

for i=1:noP

      for j=1:Dim

           if(mass(i)~=0)

               acceleration(i,j)=force(i,j)/mass(i);%Equation (3.6)

           end

      end

end

%Update inertia weight

w=wMin-Iteration*(wMax-wMin)/Max_iteration;

%Calculate V

for i=1:noP

       for j=1:Dim

           %Equation (4.1)

           Velocity(i,j)=w*Velocity(i,j)+rand()*acceleration(i,j) + rand()*(gBest(j)-CurrentPosition(i,j));

       end

end

%Calculate X                                  

           

CurrentPosition = CurrentPosition + Velocity ; %Equation (4.2)

ConvergenceCurve(1,Iteration)=gBestScore;

disp(['PSOGSA is training FNN (Iteration = ', num2str(Iteration),' ,MSE = ', num2str(gBestScore),')'])        

end

%% ///////////////////////Calculate the classification//////////////////////

       Rrate=0;

       Weights=gBest(1:7*HiddenNodes);

       Biases=gBest(7*HiddenNodes+1:Dim);

        for pp=1:TrainingNO

           actualvalue=My_FNN(4,HiddenNodes,3,Weights,Biases,I2(pp,1),I2(pp,2), I2(pp,3),I2(pp,4));

           if(T(pp)==-1)

               if (round(actualvalue(1))==1 && round(actualvalue(2))==0 && round(actualvalue(3))==0)

                   Rrate=Rrate+1;

               end

           end

           if(T(pp)==0)

               if (round(actualvalue(1))==0 && round(actualvalue(2))==1 && round(actualvalue(3))==0)

                   Rrate=Rrate+1;

               end  

           end

           if(T(pp)==1)

               if (round(actualvalue(1))==0 && round(actualvalue(2))==0 && round(actualvalue(3))==1)

                   Rrate=Rrate+1;

               end              

           end

       end

       

ClassificationRate=(Rrate/TrainingNO)*100;

disp(['Classification rate = ', num2str(ClassificationRate)]);

%% Draw the convergence curve

hold on;      

semilogy(ConvergenceCurve);

title(['Classification rate : ', num2str(ClassificationRate), '%']);

xlabel('Iteration');

ylabel('MSE');

box on

grid on

axis tight

hold off;

3 运行结果

image.gif编辑

4 参考文献

[1] Mirjalili S A ,  Hashim S ,  Sardroudi H M . Training feedforward neural networks using hybrid particle swarm optimization and gravitational search algorithm[J]. Applied Mathematics & Computation, 2012, 218(22):11125-11137.

博主简介:擅长智能优化算法、神经网络预测、信号处理、元胞自动机、图像处理、路径规划、无人机等多种领域的Matlab仿真,相关matlab代码问题可私信交流。

部分理论引用网络文献,若有侵权联系博主删除。

相关文章
|
1天前
|
传感器 算法
基于GA遗传算法的多机无源定位系统GDOP优化matlab仿真
本项目基于遗传算法(GA)优化多机无源定位系统的GDOP,使用MATLAB2022A进行仿真。通过遗传算法的选择、交叉和变异操作,迭代优化传感器配置,最小化GDOP值,提高定位精度。仿真输出包括GDOP优化结果、遗传算法收敛曲线及三维空间坐标点分布图。核心程序实现了染色体编码、适应度评估、遗传操作等关键步骤,最终展示优化后的传感器布局及其性能。
|
2天前
|
机器学习/深度学习 算法 安全
基于深度学习的路面裂缝检测算法matlab仿真
本项目基于YOLOv2算法实现高效的路面裂缝检测,使用Matlab 2022a开发。完整程序运行效果无水印,核心代码配有详细中文注释及操作视频。通过深度学习技术,将目标检测转化为回归问题,直接预测裂缝位置和类别,大幅提升检测效率与准确性。适用于实时检测任务,确保道路安全维护。 简介涵盖了算法理论、数据集准备、网络训练及检测过程,采用Darknet-19卷积神经网络结构,结合随机梯度下降算法进行训练。
|
3天前
|
算法 数据可视化 数据安全/隐私保护
一级倒立摆平衡控制系统MATLAB仿真,可显示倒立摆平衡动画,对比极点配置,线性二次型,PID,PI及PD五种算法
本课题基于MATLAB对一级倒立摆控制系统进行升级仿真,增加了PI、PD控制器,并对比了极点配置、线性二次型、PID、PI及PD五种算法的控制效果。通过GUI界面显示倒立摆动画和控制输出曲线,展示了不同控制器在偏转角和小车位移变化上的性能差异。理论部分介绍了倒立摆系统的力学模型,包括小车和杆的动力学方程。核心程序实现了不同控制算法的选择与仿真结果的可视化。
31 15
|
6月前
|
机器学习/深度学习 数据可视化 Python
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
该博客展示了如何通过Python预处理神经网络权重矩阵并将其导出为表格,然后使用Chiplot网站来可视化神经网络的神经元节点之间的连接。
85 0
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch代码实现神经网络
这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。
106 9
|
6月前
|
机器学习/深度学习 Linux TensorFlow
【Tensorflow+keras】用代码给神经网络结构绘图
文章提供了使用TensorFlow和Keras来绘制神经网络结构图的方法,并给出了具体的代码示例。
85 0
|
6月前
|
机器学习/深度学习 自然语言处理 TensorFlow
|
7月前
|
机器学习/深度学习 TensorFlow API
Keras是一个高层神经网络API,由Python编写,并能够在TensorFlow、Theano或CNTK之上运行。Keras的设计初衷是支持快速实验,能够用最少的代码实现想法,并且能够方便地在CPU和GPU上运行。
Keras是一个高层神经网络API,由Python编写,并能够在TensorFlow、Theano或CNTK之上运行。Keras的设计初衷是支持快速实验,能够用最少的代码实现想法,并且能够方便地在CPU和GPU上运行。
|
7月前
|
机器学习/深度学习 编解码 数据可视化
图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比
目前我们看到有很多使用KAN替代MLP的实验,但是目前来说对于图神经网络来说还没有类似的实验,今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。
238 0
|
8月前
|
机器学习/深度学习 算法 计算机视觉
没有公式,不要代码,让你理解 RCNN:目标检测中的区域卷积神经网络
没有公式,不要代码,让你理解 RCNN:目标检测中的区域卷积神经网络
162 0
没有公式,不要代码,让你理解 RCNN:目标检测中的区域卷积神经网络

热门文章

最新文章