【智能优化算法】一种改进的灰狼算法附matlab代码

简介: 【智能优化算法】一种改进的灰狼算法附matlab代码

 1 简介

Grey wolf optimization (GWO) algorithm is a new emerging algorithm that is based on the social hierarchy of grey wolves as well as their hunting and cooperation strategies. Introduced in 2014, this algorithm has been used by a large number of researchers and designers, such that the number of citations to the original paper exceeded many other algorithms. In a recent study by Niu et al., one of the main drawbacks of this algorithm for optimizing real﹚orld problems was introduced. In summary, they showed that GWO's performance degrades as the optimal solution of the problem diverges from 0. In this paper, by introducing a straightforward modification to the original GWO algorithm, that is, neglecting its social hierarchy, the authors were able to largely eliminate this defect and open a new perspective for future use of this algorithm. The efficiency of the proposed method was validated by applying it to benchmark and real﹚orld engineering problems.

2 部分代码

clcclearglobal NFENFE=0;nPop=30;    % Number of search agents (Population Number)MaxIt=1000; % Maximum number of iterationsnVar=30;    % Number of Optimization Variables nFun=1;     % Function No, select any integer number from 1 to 14CostFunction=@(x,nFun) Cost(x,nFun);        % Cost Function%% Problem DefinitionVarMin=-100;             % Decision Variables Lower Boundif nFun==7    VarMin=-600;             % Decision Variables Lower Boundendif nFun==8    VarMin=-32;             % Decision Variables Lower Boundendif nFun==9    VarMin=-5;             % Decision Variables Lower Boundendif nFun==10    VarMin=-5;             % Decision Variables Lower Boundendif nFun==11    VarMin=-0.5;             % Decision Variables Lower Boundendif nFun==12    VarMin=-pi;             % Decision Variables Lower Boundendif nFun==14    VarMin=-100;             % Decision Variables Lower BoundendVarMax= -VarMin;             % Decision Variables Upper Boundif nFun==13    VarMin=-3;             % Decision Variables Lower Bound    VarMax= 1;             % Decision Variables Upper Boundend%%   Grey Wold Optimizer (GWO)% Initialize Alpha, Beta, and DeltaAlpha_pos=zeros(1,nVar);Alpha_score=inf;Beta_pos=zeros(1,nVar);Beta_score=inf;Delta_pos=zeros(1,nVar);Delta_score=inf;%Initialize the positions of search agentsPositions=rand(nPop,nVar).*(VarMax-VarMin)+VarMin;BestCosts=zeros(1,MaxIt);fitness=nan(1,nPop);iter=0;  % Loop counter%% Main loopwhile iter<MaxIt    for i=1:nPop                % Return back the search agents that go beyond the boundaries of the search space        Flag4ub=Positions(i,:)>VarMax;        Flag4lb=Positions(i,:)<VarMin;        Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+VarMax.*Flag4ub+VarMin.*Flag4lb;                % Calculate objective function for each search agent        fitness(i)= CostFunction(Positions(i,:), nFun);                % Update Alpha, Beta, and Delta        if fitness(i)<Alpha_score            Alpha_score=fitness(i);  % Update Alpha            Alpha_pos=Positions(i,:);        end                if fitness(i)>Alpha_score && fitness(i)<Beta_score            Beta_score=fitness(i);  % Update Beta            Beta_pos=Positions(i,:);        end                if fitness(i)>Alpha_score && fitness(i)>Beta_score && fitness(i)<Delta_score            Delta_score=fitness(i);  % Update Delta            Delta_pos=Positions(i,:);        end    end        a=2-(iter*((2)/MaxIt));  % a decreases linearly fron 2 to 0        % Update the Position of all search agents    for i=1:nPop        for j=1:nVar                        r1=rand;            r2=rand;                        A1=2*a*r1-a;            C1=2*r2;                        D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j));            X1=Alpha_pos(j)-A1*D_alpha;                        r1=rand;            r2=rand;                        A2=2*a*r1-a;            C2=2*r2;                        D_beta=abs(C2*Beta_pos(j)-Positions(i,j));            X2=Beta_pos(j)-A2*D_beta;                        r1=rand;            r2=rand;                        A3=2*a*r1-a;            C3=2*r2;                        D_delta=abs(C3*Delta_pos(j)-Positions(i,j));            X3=Delta_pos(j)-A3*D_delta;                        Positions(i,j)=(X1+X2+X3)/3;                    end    end        iter=iter+1;    BestCosts(iter)=Alpha_score;        fprintf('Iter= %g,  NFE= %g,  Best Cost = %g\n',iter,NFE,Alpha_score); end

3 仿真结果

image.gif编辑

4 参考文献

[1] Akbari E ,  Rahimnejad A ,  Gadsden S A . A greedy non﹉ierarchical grey wolf optimizer for real﹚orld optimization[J]. Electronics Letters, 2021(1).

博主简介:擅长智能优化算法、神经网络预测、信号处理、元胞自动机、图像处理、路径规划、无人机等多种领域的Matlab仿真,相关matlab代码问题可私信交流。

部分理论引用网络文献,若有侵权联系博主删除。

5 代码下载

相关文章
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于二维CS-SCHT变换和LABS方法的水印嵌入和提取算法matlab仿真
该内容包括一个算法的运行展示和详细步骤,使用了MATLAB2022a。算法涉及水印嵌入和提取,利用LAB色彩空间可能用于隐藏水印。水印通过二维CS-SCHT变换、低频系数处理和特定解码策略来提取。代码段展示了水印置乱、图像处理(如噪声、旋转、剪切等攻击)以及水印的逆置乱和提取过程。最后,计算并保存了比特率,用于评估水印的稳健性。
|
20小时前
|
算法
m基于BP译码算法的LDPC编译码matlab误码率仿真,对比不同的码长
MATLAB 2022a仿真实现了LDPC码的性能分析,展示了不同码长对纠错能力的影响。短码长LDPC码收敛快但纠错能力有限,长码长则提供更强纠错能力但易陷入局部最优。核心代码通过循环进行误码率仿真,根据EsN0计算误比特率,并保存不同码长(12-768)的结果数据。
18 9
m基于BP译码算法的LDPC编译码matlab误码率仿真,对比不同的码长
|
2天前
|
算法
MATLAB|【免费】融合正余弦和柯西变异的麻雀优化算法SCSSA-CNN-BiLSTM双向长短期记忆网络预测模型
这段内容介绍了一个使用改进的麻雀搜索算法优化CNN-BiLSTM模型进行多输入单输出预测的程序。程序通过融合正余弦和柯西变异提升算法性能,主要优化学习率、正则化参数及BiLSTM的隐层神经元数量。它利用一段简单的风速数据进行演示,对比了改进算法与粒子群、灰狼算法的优化效果。代码包括数据导入、预处理和模型构建部分,并展示了优化前后的效果。建议使用高版本MATLAB运行。
|
4天前
|
算法 计算机视觉
基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
该内容是关于使用MATLAB2013B实现基于高斯混合模型(GMM)的视频背景提取和人员跟踪算法。算法通过GMM建立背景模型,新帧与模型比较,提取前景并进行人员跟踪。文章附有程序代码示例,展示从读取视频到结果显示的流程。最后,结果保存在Result.mat文件中。
|
4天前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
9 1
|
4天前
|
存储 算法 数据可视化
基于harris角点和RANSAC算法的图像拼接matlab仿真
本文介绍了使用MATLAB2022a进行图像拼接的流程,涉及Harris角点检测和RANSAC算法。Harris角点检测寻找图像中局部曲率变化显著的点,RANSAC则用于排除噪声和异常点,找到最佳匹配。核心程序包括自定义的Harris角点计算函数,RANSAC参数设置,以及匹配点的可视化和仿射变换矩阵计算,最终生成全景图像。
|
4天前
|
算法 Serverless
m基于遗传优化的LDPC码NMS译码算法最优归一化参数计算和误码率matlab仿真
MATLAB 2022a仿真实现了遗传优化的归一化最小和(NMS)译码算法,应用于低密度奇偶校验(LDPC)码。结果显示了遗传优化的迭代过程和误码率对比。遗传算法通过选择、交叉和变异操作寻找最佳归一化因子,以提升NMS译码性能。核心程序包括迭代优化、目标函数计算及性能绘图。最终,展示了SNR与误码率的关系,并保存了关键数据。
16 1
|
4天前
|
算法 调度
考虑需求响应的微网优化调度模型【粒子群算法】【matlab】
考虑需求响应的微网优化调度模型【粒子群算法】【matlab】
|
4天前
|
运维 算法
基于改进遗传算法的配电网故障定位(matlab代码)
基于改进遗传算法的配电网故障定位(matlab代码)
|
4天前
|
算法 调度
基于多目标粒子群算法冷热电联供综合能源系统运行优化(matlab代码)
基于多目标粒子群算法冷热电联供综合能源系统运行优化(matlab代码)

热门文章

最新文章