【MATLAB第36期】基于MATLAB的QOWOA-LSTM鲸鱼优化算法准反向策略的WOA优化LSTM时间序列预测模型 优势明显,注释详细,绘图丰富

简介: 【MATLAB第36期】基于MATLAB的QOWOA-LSTM鲸鱼优化算法准反向策略的WOA优化LSTM时间序列预测模型 优势明显,注释详细,绘图丰富

【MATLAB第36期】基于MATLAB的QOWOA-LSTM鲸鱼优化算法准反向策略的QOWOA优化LSTM时间序列预测模型,优势明显,注释详细,绘图丰富


一、代码优势


1.使用优化后的QOWOA算法优化LSTM超参数(学习率,隐藏层节点,正则化系数,训练次数)

2.目标函数考虑训练集和测试集,更加合理;运行结果稳定,可直接调用结果,且调用结果非常方便。

3.滑动窗口方法处理单列时间序列数据,考虑历史数据的影响。

4.代码一体化,一键运行;注释丰富,评价指标丰富,逻辑清晰,适合小白学习。

5.代码绘图丰富(除基础绘图以外,还包括训练LOSS图、超参数迭代图)、美观

6.命令行窗口可见运行过程的结果.

7.参数可在代码中设置,方便调试;优化超参数可以根据需求更改 。


二、后期研究计划


后续将在博文中更新更丰富、功能更完整的作品,敬请期待。

1.多层LSTM结构优化,含单向LSTM/GRU和双向Bilstm混合模型

2.更多超参数优化,含结构层数量、隐含层节点数、最小批处理数量、时间步数等

3.含预测未来功能

4.更多新的算法以及在基础上改进算法对比。

5.loss内置函数修改

6.多场景应用(分类、回归、多输入多输出等等)


三、代码展示

%%  1.清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行
%%  2.导入数据(时间序列的单列数据)
result = xlsread('数据集.xlsx');
%%  3.数据分析
num_samples = length(result);  % 样本个数 
kim = 15;                      % 延时步长(kim个历史数据作为自变量)
zim =  1;                      % 跨zim个时间点进行预测
%%  4.划分数据集
for i = 1: num_samples - kim - zim + 1
    res(i, :) = [reshape(result(i: i + kim - 1), 1, kim), result(i + kim + zim - 1)];
end
%%  5.数据集分析
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度
%%  6.划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%%  7.数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%%  8.数据平铺
%   将数据平铺成1维数据只是一种处理方式
%   也可以平铺成2维数据,以及3维数据,需要修改对应模型结构
%   但是应该始终和输入层数据结构保持一致
P_train =  double(reshape(P_train, f_, 1, 1, M));
P_test  =  double(reshape(P_test , f_, 1, 1, N));
t_train = t_train';
t_test  = t_test' ;
%%  9.数据格式转换
for i = 1 : M
    p_train{i, 1} = P_train(:, :, 1, i);
end
for i = 1 : N
    p_test{i, 1}  = P_test( :, :, 1, i);
end
%%  10.优化算法参数设置
SearchAgents_no = 5;                   % 种群数量
Max_iteration = 5;                    % 最大迭代次数
dim = 4;                               % 优化参数个数
lb = [1e-3, 10, 1e-4,20];                 % 参数取值下界(学习率,隐藏层节点,正则化系数,训练次数)
ub = [1e-2, 80, 1e-3,100];                 % 参数取值上界(学习率,隐藏层节点,正则化系数,训练次数)
fobj=@(x)fun(x);  %适应度函数
%%  11.优化算法初始化
[Best_sol,Best_X,Convergence,BestNet,pos_curve]=QOWOA(SearchAgents_no,dim,Max_iteration,lb,ub,fobj)
%% 12.优化前LSTM运行结果
[fitness1,net1,res1,info1] =  fun([0.005,50,0.005,50]); % 基础参数取值(学习率,隐藏层节点,正则化系数,训练次数)
predict_value1=res1.predict_value1;
predict_value2=res1.predict_value2;
true_value1=res1.true_value1;
true_value2=res1.true_value2;
i=1;
disp('-------------------------------------------------------------')
disp('LSTM结果:')
rmse1=sqrt(mean((true_value1(i,:)-predict_value1(i,:)).^2));
disp(['LSTM训练集根均方差(RMSE):',num2str(rmse1)])
mae1=mean(abs(true_value1(i,:)-predict_value1(i,:)));
disp(['LSTM训练集平均绝对误差(MAE):',num2str(mae1)])
mape1=mean(abs((true_value1(i,:)-predict_value1(i,:))./true_value1(i,:)));
disp(['LSTM训练集平均相对百分误差(MAPE):',num2str(mape1*100),'%'])
r2_1=R2(true_value1(i,:),predict_value1(i,:));
disp(['LSTM训练集R-square决定系数(R2):',num2str(r2_1)])
rmse2=sqrt(mean((true_value2(i,:)-predict_value2(i,:)).^2));
disp(['LSTM测试集根均方差(RMSE):',num2str(rmse2)])
mae2=mean(abs(true_value2(i,:)-predict_value2(i,:)));
disp(['LSTM测试集平均绝对误差(MAE):',num2str(mae2)])
mape2=mean(abs((true_value2(i,:)-predict_value2(i,:))./true_value2(i,:)));
disp(['LSTM测试集平均相对百分误差(MAPE):',num2str(mape2*100),'%'])
r2_2=R2(true_value2(i,:),predict_value2(i,:));
disp(['LSTM测试集R-square决定系数(R2):',num2str(r2_2)])
%% 13. LSTM绘图
%% 14.优化后WOA-LSTM运行结果  
[fitness2,net2,res2,info2] =  fun(Best_X); % 基础参数取值(学习率,隐藏层节点,正则化系数,训练次数)
%% 15.WOA-LSTM绘图
%% 16.QOWOA-LSTM运行结果
%% 17.QOWOA-LSTM绘图


四、运行结果


LSTM结果:

LSTM训练集根均方差(RMSE):0.023407

LSTM训练集平均绝对误差(MAE):0.01781

LSTM训练集平均相对百分误差(MAPE):2.9834%

LSTM训练集R-square决定系数(R2):0.95768

LSTM测试集根均方差(RMSE):0.024046

LSTM测试集平均绝对误差(MAE):0.01902

LSTM测试集平均相对百分误差(MAPE):3.2605%

LSTM测试集R-square决定系数(R2):0.78619


QOWOA-LSTM结果:

QOWOA-LSTM优化得到的最优参数为:

QOWOA-LSTM优化得到的隐藏单元数目为:42

QOWOA-LSTM优化得到的最大训练周期为:88

QOWOA-LSTM优化得到的InitialLearnRate为:0.0050054

QOWOA-LSTM优化得到的L2Regularization为:0.00058159

QOWOA-LSTM训练集根均方差(RMSE):0.012849

QOWOA-LSTM训练集平均绝对误差(MAE):0.0095498

QOWOA-LSTM训练集平均相对百分误差(MAPE):1.5737%

QOWOA-LSTM训练集R-square决定系数(R2):0.9858

QOWOA-LSTM测试集根均方差(RMSE):0.014634

QOWOA-LSTM测试集平均绝对误差(MAE):0.011312

QOWOA-LSTM测试集平均相对百分误差(MAPE):1.9105%

QOWOA-LSTM测试集R-square决定系数(R2):0.91914


五、代码获取


后台私信回复“36期”即可获取下载链接。

文章知识点与官方知识档案匹配,可进一

相关文章
|
9天前
|
算法 数据挖掘 数据安全/隐私保护
基于FCM模糊聚类算法的图像分割matlab仿真
本项目展示了基于模糊C均值(FCM)算法的图像分割技术。算法运行效果良好,无水印。使用MATLAB 2022a开发,提供完整代码及中文注释,附带操作步骤视频。FCM算法通过隶属度矩阵和聚类中心矩阵实现图像分割,适用于灰度和彩色图像,广泛应用于医学影像、遥感图像等领域。
|
10天前
|
算法 调度
基于遗传模拟退火混合优化算法的车间作业最优调度matlab仿真,输出甘特图
车间作业调度问题(JSSP)通过遗传算法(GA)和模拟退火算法(SA)优化多个作业在并行工作中心上的加工顺序和时间,以最小化总完成时间和机器闲置时间。MATLAB2022a版本运行测试,展示了有效性和可行性。核心程序采用作业列表表示法,结合遗传操作和模拟退火过程,提高算法性能。
|
10天前
|
机器学习/深度学习 算法 芯片
基于GSP工具箱的NILM算法matlab仿真
基于GSP工具箱的NILM算法Matlab仿真,利用图信号处理技术解析家庭或建筑内各电器的独立功耗。GSPBox通过图的节点、边和权重矩阵表示电气系统,实现对未知数据的有效分类。系统使用MATLAB2022a版本,通过滤波或分解技术从全局能耗信号中提取子设备的功耗信息。
|
24天前
|
算法 安全 数据安全/隐私保护
基于game-based算法的动态频谱访问matlab仿真
本算法展示了在认知无线电网络中,通过游戏理论优化动态频谱访问,提高频谱利用率和物理层安全性。程序运行效果包括负载因子、传输功率、信噪比对用户效用和保密率的影响分析。软件版本:Matlab 2022a。完整代码包含详细中文注释和操作视频。
|
1月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于MSER和HOG特征提取的SVM交通标志检测和识别算法matlab仿真
### 算法简介 1. **算法运行效果图预览**:展示算法效果,完整程序运行后无水印。 2. **算法运行软件版本**:Matlab 2017b。 3. **部分核心程序**:完整版代码包含中文注释及操作步骤视频。 4. **算法理论概述**: - **MSER**:用于检测显著区域,提取图像中稳定区域,适用于光照变化下的交通标志检测。 - **HOG特征提取**:通过计算图像小区域的梯度直方图捕捉局部纹理信息,用于物体检测。 - **SVM**:寻找最大化间隔的超平面以分类样本。 整个算法流程图见下图。
|
11天前
|
存储 算法 决策智能
基于免疫算法的TSP问题求解matlab仿真
旅行商问题(TSP)是一个经典的组合优化问题,目标是寻找经过每个城市恰好一次并返回起点的最短回路。本文介绍了一种基于免疫算法(IA)的解决方案,该算法模拟生物免疫系统的运作机制,通过克隆选择、变异和免疫记忆等步骤,有效解决了TSP问题。程序使用MATLAB 2022a版本运行,展示了良好的优化效果。
|
10天前
|
机器学习/深度学习 算法 5G
基于MIMO系统的SDR-AltMin混合预编码算法matlab性能仿真
基于MIMO系统的SDR-AltMin混合预编码算法通过结合半定松弛和交替最小化技术,优化大规模MIMO系统的预编码矩阵,提高信号质量。Matlab 2022a仿真结果显示,该算法能有效提升系统性能并降低计算复杂度。核心程序包括预编码和接收矩阵的设计,以及不同信噪比下的性能评估。
26 3
|
21天前
|
人工智能 算法 数据安全/隐私保护
基于遗传优化的SVD水印嵌入提取算法matlab仿真
该算法基于遗传优化的SVD水印嵌入与提取技术,通过遗传算法优化水印嵌入参数,提高水印的鲁棒性和隐蔽性。在MATLAB2022a环境下测试,展示了优化前后的性能对比及不同干扰下的水印提取效果。核心程序实现了SVD分解、遗传算法流程及其参数优化,有效提升了水印技术的应用价值。
|
22天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
|
27天前
|
存储
基于遗传算法的智能天线最佳阵列因子计算matlab仿真
本课题探讨基于遗传算法优化智能天线阵列因子,以提升无线通信系统性能,包括信号质量、干扰抑制及定位精度。通过MATLAB2022a实现的核心程序,展示了遗传算法在寻找最优阵列因子上的应用,显著改善了天线接收功率。

热门文章

最新文章