【智能优化算法】成功历史智能优化器(SHIO)附matlab代码

简介: 【智能优化算法】成功历史智能优化器(SHIO)附matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab仿真内容点击👇

智能优化算法  神经网络预测雷达通信 无线传感器

信号处理图像处理路径规划元胞自动机无人机 电力系统

⛄ 内容介绍

该论文提出了一种称为成功历史智能优化器 (SHIO) 的新型随机群智能算法。它通过基于搜索空间中找到的三个最佳解决方案提出新的探索和开发运动策略来创建新的运动向量,从而为单目标优化问题提供解决方案,其中每个最佳解决方案都存储在内存中并从到目前为止在优化过程中找到的三个最佳解决方案的平均值。拟议的 SHIO 确保了搜索空间探索和使用的效率。为了确认 SHIO 性能,测试了几种性能测量(搜索历史、轨迹和收敛曲线),并使用 SHIO 来解决 (23) 单目标优化基准函数。这些功能已被分类为单峰,多式联运和固定式多式联运。使用了平均值、标准差、最小值和最大值等各种指标,并记录了定量结果。此外,定性结果的轨迹和搜索历史可视化。测试函数和性能指标的结果表明,所提出的算法可以探索各种搜索区域位置,在优化的同时利用潜在的搜索空间位置,避免局部乐观并有效地收敛到全局最优。与比较算法相比,SHIO 在评估的单峰和多峰基准测试中提供了极具竞争力和卓越的结果。请注意,SHIO 算法源代码可在 并记录了定量结果。此外,定性结果的轨迹和搜索历史可视化。测试函数和性能指标的结果表明,所提出的算法可以探索各种搜索区域位置,在优化的同时利用潜在的搜索空间位置,避免局部乐观并有效地收敛到全局最优。与比较算法相比,SHIO 在评估的单峰和多峰基准测试中提供了极具竞争力和卓越的结果。请注意,SHIO 算法源代码可在 并记录了定量结果。此外,定性结果的轨迹和搜索历史可视化。测试函数和性能指标的结果表明,所提出的算法可以探索各种搜索区域位置,在优化的同时利用潜在的搜索空间位置,避免局部乐观并有效地收敛到全局最优。与比较算法相比,SHIO 在评估的单峰和多峰基准测试中提供了极具竞争力和卓越的结果。请注意,SHIO 算法源代码可在 在优化的同时利用潜在的搜索空间位置,避免局部乐观,高效收敛到全局最优。与比较算法相比,SHIO 在评估的单峰和多峰基准测试中提供了极具竞争力和卓越的结果。请注意,SHIO 算法源代码可在 在优化的同时利用潜在的搜索空间位置,避免局部乐观,高效收敛到全局最优。与比较算法相比,SHIO 在评估的单峰和多峰基准测试中提供了极具竞争力和卓越的结果。

⛄ 部分代码

% Success history intelligent optimizer (SHIO) optmization Code

% code for paper: Fakhouri, H. N., Hamad, F., & Alawamrah, A. (2022). Success history intelligent optimizer. The Journal of Supercomputing, 78(5), 6461-6502.

%please give citation of the above paper


% benchmarkfunction = @YourCostFunction

% dimensionension = number of your variables

% part of this code is referenced to : https://www.mathworks.com/matlabcentral/fileexchange/44974-grey-wolf-optimizer-gwo

% we have modified the open source code of GWO equations and code to make SHIO code

%                                                                   %

%   reference of code and credit to : S. Mirjalili, S. M. Mirjalili, A. Lewis             %

%               Grey Wolf Optimizer, Advances in Engineering        %

%               Software , in press,                                %



clear all

clc

visFlag = 0;

SHIO_Particles_number=50; % Number of search agents

Maximum_numbef_of_iterations=100;

% Load details of the selected benchmark function

number_of_runs=3;

for i= [ 1 :1 : 5]

%  for 23 function  use i= [ 1 :1 : 23]


if i== 1

       Function_name = 'F1';  

       display('The best optimal value of the objective funciton found F1 : ');

   end  

   

    if i== 2

       Function_name = 'F2';

        display('The best optimal value of the objective funciton found F2 : ');

    end

   if i== 3

       Function_name = 'F3';  

       display('The best optimal value of the objective funciton found F3 : ');

   end  

   

    if i== 4

       Function_name = 'F4';

        display('The best optimal value of the objective funciton found F4 : ');

   end

   if i== 5

       Function_name = 'F5';  

       display('The best optimal value of the objective funciton found F5 : ');

   end  

    if i== 6

       Function_name = 'F6';

        display('The best optimal value of the objective funciton found F6 : ');

   end  

   if i== 7

       Function_name = 'F7';  

       display('The best optimal value of the objective funciton found F7 : ');

   end  

    if i== 8

       Function_name = 'F8';

        display('The best optimal value of the objective funciton found F8 : ');

   end

   if i== 9

       Function_name = 'F9';  

       display('The best optimal value of the objective funciton found F9 : ');

   end  

    if i== 10

       Function_name = 'F10';

        display('The best optimal value of the objective funciton found F10 : ');

    end  

   if i== 11

       Function_name = 'F11';  

       display('The best optimal value of the objective funciton found F11 : ');

   end  

    if i== 12

       Function_name = 'F12';

        display('The best optimal value of the objective funciton found F12 : ');

   end

   if i== 13

       Function_name = 'F13';  

       display('The best optimal value of the objective funciton found F13 : ');

   end  

    if i== 14

       Function_name = 'F14';

        display('The best optimal value of the objective funciton found F14 : ');

    end

     if i== 15

       Function_name = 'F15';  

       display('The best optimal value of the objective funciton found F15 : ');

   end  

    if i== 16

       Function_name = 'F16';

        display('The best optimal value of the objective funciton found F16 : ');

   end  

   if i== 17

       Function_name = 'F17';  

       display('The best optimal value of the objective funciton found F17 : ');

   end  

    if i== 18

       Function_name = 'F18';

        display('The best optimal value of the objective funciton found F18 : ');

    end

    if i== 19

       Function_name = 'F19';

        display('The best optimal value of the objective funciton found F19 : ');

    end

    if i== 20

       Function_name = 'F20';

        display('The best optimal value of the objective funciton found F20 : ');

    end

    if i== 21

       Function_name = 'F21';

        display('The best optimal value of the objective funciton found F21 : ');

    end

    if i== 22

       Function_name = 'F22';

        display('The best optimal value of the objective funciton found F22 : ');

    end

    if i== 23

       Function_name = 'F23';

        display('The best optimal value of the objective funciton found F23 : ');

    end

   

bestsolutionsofSHIO=zeros(1,number_of_runs);

%bestsolutionsofPSO=zeros(1,number_of_runs);

[lowerbound,upperbound,dimension,benchmarkfunction]=Get_Functions_details(Function_name);


for k= [ 1 :1 : number_of_runs]

[SHIO_best_solution_value,SHIO_best_particle_position,SHIO_convergence_curve, Trajectories,fitness_history, position_history]=SHIOoptmizer(SHIO_Particles_number,Maximum_numbef_of_iterations,lowerbound,upperbound,dimension,benchmarkfunction);

bestsolutionsofSHIO(k)=SHIO_best_solution_value;

disp(['run number', num2str(k)]);

disp(['is', num2str(SHIO_best_solution_value)]);

%[gBestScore, PSO_cg_curve]=PSO(SHIO_Particles_number,Maximum_numbef_of_iterations,lowerbound,upperbound,dimension,benchmarkfunction); % run PSO to compare to results

end

disp(['the avarage for SHIO', num2str(k)]);

mm=mean(bestsolutionsofSHIO);

disp(['the mean OF SHIO is ',num2str(mm)]);


%mm2=mean(bestsolutionsofPSO);

%disp(['the mean OF PSO is ',num2str(mm2)]);


MINSSHIO=min(bestsolutionsofSHIO);

disp(['the min OF SHIO is ',num2str(MINSSHIO)]);


MAXSSHIO=max(bestsolutionsofSHIO);

disp(['the max OF SHIO is ',num2str(MAXSSHIO)]);



disp(['the std for ', num2str(k)]);

stdSHIO=std(bestsolutionsofSHIO);

disp(['the std OF SHIO is ',num2str(stdSHIO)]);

    end

% %***********************************************************

%draw last function values

% %***********************************************************

%draw curve compare with Pso

figure('Position',[500 500 660 290])

%Draw search space

subplot(1,2,1);

func_plot(Function_name);

title('Parameter space')

xlabel('x_1');

ylabel('x_2');

zlabel([Function_name,'( x_1 , x_2 )'])


%Draw objective space

subplot(1,2,2);


semilogy(SHIO_convergence_curve,'Color','r')

hold on

%semilogy(PSO_cg_curve,'Color','b')

%title('Objective space')

xlabel('Iteration');

ylabel('Best score obtained so far');


axis tight


box on




%******************************************************** draw all shapes togather


%please wait it take time


figure('Position',[454   445   894   297])

%Draw search space

subplot(1,5,1);

func_plot(Function_name);

title('Parameter space')

xlabel('x_1');

ylabel('x_2');

zlabel([Function_name,'( x_1 , x_2 )'])

box on

axis tight


subplot(1,5,2);

hold on

for k1 = 1: size(position_history,1)

   for k2 = 1: size(position_history,2)

       plot(position_history(k1,k2,1),position_history(k1,k2,2),'.','markersize',1,'MarkerEdgeColor','k','markerfacecolor','k');

   end

end

plot(SHIO_best_particle_position(1),SHIO_best_particle_position(2),'.','markersize',10,'MarkerEdgeColor','r','markerfacecolor','r');

title('Search history (x1 and x2 only)')

xlabel('x1')

ylabel('x2')

box on

axis tight


subplot(1,5,3);

hold on

plot(Trajectories(1,:));

title('Trajectory of 1st Particle')

xlabel('Iteration#')

box on

axis tight


subplot(1,5,4);

hold on

semilogy(mean(fitness_history),'Color','g', 'LineWidth',2);

title('Average fitness of all Particles')

xlabel('Iteration#')

box on

axis tight


%Draw objective space

subplot(1,5,5);

semilogy(SHIO_convergence_curve,'Color','r')

title('Convergence curve')

xlabel('Iteration#');

ylabel('Best score obtained so far');

box on

axis tight

set(gcf, 'position' , [39         479        1727         267]);

%******************************************************** draw all shapes togather

⛄ 运行结果

⛄ 参考文献

Fakhouri, H. N., Hamad, F., & Alawamrah, A. (2022). Success history intelligent optimizer. The Journal of Supercomputing, 78(5), 6461-6502.

⛄ 完整代码

❤️部分理论引用网络文献,若有侵权联系博主删除
❤️ 关注我领取海量matlab电子书和数学建模资料


相关文章
|
4天前
|
算法 数据挖掘 数据安全/隐私保护
基于FCM模糊聚类算法的图像分割matlab仿真
本项目展示了基于模糊C均值(FCM)算法的图像分割技术。算法运行效果良好,无水印。使用MATLAB 2022a开发,提供完整代码及中文注释,附带操作步骤视频。FCM算法通过隶属度矩阵和聚类中心矩阵实现图像分割,适用于灰度和彩色图像,广泛应用于医学影像、遥感图像等领域。
|
5天前
|
算法 调度
基于遗传模拟退火混合优化算法的车间作业最优调度matlab仿真,输出甘特图
车间作业调度问题(JSSP)通过遗传算法(GA)和模拟退火算法(SA)优化多个作业在并行工作中心上的加工顺序和时间,以最小化总完成时间和机器闲置时间。MATLAB2022a版本运行测试,展示了有效性和可行性。核心程序采用作业列表表示法,结合遗传操作和模拟退火过程,提高算法性能。
|
6天前
|
存储 算法 决策智能
基于免疫算法的TSP问题求解matlab仿真
旅行商问题(TSP)是一个经典的组合优化问题,目标是寻找经过每个城市恰好一次并返回起点的最短回路。本文介绍了一种基于免疫算法(IA)的解决方案,该算法模拟生物免疫系统的运作机制,通过克隆选择、变异和免疫记忆等步骤,有效解决了TSP问题。程序使用MATLAB 2022a版本运行,展示了良好的优化效果。
|
5天前
|
机器学习/深度学习 算法 芯片
基于GSP工具箱的NILM算法matlab仿真
基于GSP工具箱的NILM算法Matlab仿真,利用图信号处理技术解析家庭或建筑内各电器的独立功耗。GSPBox通过图的节点、边和权重矩阵表示电气系统,实现对未知数据的有效分类。系统使用MATLAB2022a版本,通过滤波或分解技术从全局能耗信号中提取子设备的功耗信息。
|
5天前
|
机器学习/深度学习 算法 5G
基于MIMO系统的SDR-AltMin混合预编码算法matlab性能仿真
基于MIMO系统的SDR-AltMin混合预编码算法通过结合半定松弛和交替最小化技术,优化大规模MIMO系统的预编码矩阵,提高信号质量。Matlab 2022a仿真结果显示,该算法能有效提升系统性能并降低计算复杂度。核心程序包括预编码和接收矩阵的设计,以及不同信噪比下的性能评估。
22 3
|
6月前
|
达摩院 开发者 容器
「达摩院MindOpt」优化形状切割问题(MILP)
在制造业,高效地利用材料不仅是节约成本的重要环节,也是可持续发展的关键因素。无论是在金属加工、家具制造还是纺织品生产中,原材料的有效利用都直接影响了整体效率和环境影响。
「达摩院MindOpt」优化形状切割问题(MILP)
|
6月前
|
人工智能 自然语言处理 达摩院
MindOpt 云上建模求解平台:多求解器协同优化
数学规划是一种数学优化方法,主要是寻找变量的取值在特定的约束情况下,使我们的决策目标得到一个最大或者最小值的决策。
|
1月前
|
机器学习/深度学习 算法 数据可视化
如果你的PyTorch优化器效果欠佳,试试这4种深度学习中的高级优化技术吧
在深度学习领域,优化器的选择对模型性能至关重要。尽管PyTorch中的标准优化器如SGD、Adam和AdamW被广泛应用,但在某些复杂优化问题中,这些方法未必是最优选择。本文介绍了四种高级优化技术:序列最小二乘规划(SLSQP)、粒子群优化(PSO)、协方差矩阵自适应进化策略(CMA-ES)和模拟退火(SA)。这些方法具备无梯度优化、仅需前向传播及全局优化能力等优点,尤其适合非可微操作和参数数量较少的情况。通过实验对比发现,对于特定问题,非传统优化方法可能比标准梯度下降算法表现更好。文章详细描述了这些优化技术的实现过程及结果分析,并提出了未来的研究方向。
24 1
|
4月前
|
人工智能 算法 调度
优化问题之如何选择合适的优化求解器
优化问题之如何选择合适的优化求解器
|
4月前
|
调度 决策智能
优化问题之优化求解器有哪些主要的评估特性
优化问题之优化求解器有哪些主要的评估特性
下一篇
无影云桌面