【MATLAB第51期】基于MATLAB的WOA-ORELM-LSTM多输入单输出回归预测模型,鲸鱼算法WOA优化异常鲁棒极限学习机ORELM超参数,修正LSTM残差

简介: 残差修正一般适用于LSTM参数较好,数据集较好的情况。在此基础上,若通过进化算法优化LSTM参数会增加运行工作量。而残差修正一般适用于时间序列预测,用进化算法优化残差修正模型比深度学习模型的收敛速度快不少。残差修正后的结果,也可以对未来进行修正预测,但是研究意义大于实用意义。

【MATLAB第51期】基于MATLAB的WOA-ORELM-LSTM多输入单输出回归预测模型,鲸鱼算法WOA优化异常鲁棒极限学习机ORELM超参数,修正LSTM残差

一、效果展示

1.鲸鱼算法优化ORELM隐含层节点及C值2超参。
b88d2a837e9889cc18b6bf24f7abe381_60f631e6aef849de92c11ce66cd8641a.png

2.ORELM优化前后对比
image.png

3.WOA-ORELM修正LSTM残差效果。
af8e4af36bf5fffa1e321985d0918472_d02381f9eceb4996b534834dd35cf957.png

二、数据展示

一列数据,案例数据为541个样本,测试最后30个样本。
数据标准化处理。

data=xlsread('数据.xls');
data1=data';
N=30;%预测个数   
N1=size(data,1)-N;
numTimeStepsTrain = floor(N1);%N1数据训练 ,剩余30用来测试
dataTrain = data(1:numTimeStepsTrain+1,:);% 训练数据
dataTest = data(numTimeStepsTrain:end,:); % 预测数据
%标准化处理
mu = mean(dataTrain,'ALL');
sig = std(dataTrain,0,'ALL');
dataTrainStandardized = (dataTrain - mu) / sig;
XTrain = dataTrainStandardized(1:end-1,:);%训练输入
YTrain = dataTrainStandardized(2:end,:);%训练输出

三、LSTM模型结果

LSTM采用默认参数,测试集预测结果如下:
c48ff1a692bdce1540f027bafbdf523e_b127cf115169423c9a14e46087f38a33.png

四、WOA-ORELM模型

1.WOA-ORELM优化LSTM残差。

error=YPred-YTest;% 残差
ELMXTrain = error(:,1:end-1);%训练输入 
ELMYTrain = error(:,2:end,:);%训练输出

2.鲸鱼算法WOA参数设置:

SearchAgents_no=100; % Number of search agents 种群数量
Max_iteration=20; % Maximum numbef of iterations 设定最大迭代次数
lb=[0.1,10]; % C值  和 隐含层神经元数
ub=[2^30,200];
dim=2;
fobj=@minerror;

3.最终结果

-----------1------------
ORELM_LSTM均方根误差(RMSE):0.003523
ORELM_LSTM平均绝对误差(MAE):0.0025534
ORELM_LSTM平均相对百分误差(MAPE):0.37779%
ORELM_LSTM R-square决定系数(R2):0.98497
-----------2------------
WOA-ORELM-LSTM均方根误差(RMSE):0.0019373
WOA-ORELM-LSTM平均绝对误差(MAE):0.0017745
WOA-ORELM-LSTM平均相对百分误差(MAPE):0.26036%
WOA-ORELM-LSTM R-square决定系数(R2):0.99873

五、分析总结

  1. 残差修正一般适用于LSTM参数较好,数据集较好的情况。在此基础上,若通过进化算法优化LSTM参数会增加运行工作量。
  2. 而残差修正一般适用于时间序列预测,用进化算法优化残差修正模型比深度学习模型的收敛速度快不少。
  3. 残差修正后的结果,也可以对未来进行修正预测,但是研究意义大于实用意义。

六、代码获取

私信回复“51期”可获取下载链接,因链接为人工发送,请耐心等待。

相关文章
|
3天前
|
机器学习/深度学习 算法 数据挖掘
基于GWO灰狼优化的CNN-LSTM-Attention的时间序列回归预测matlab仿真
摘要: 本文介绍了使用matlab2022a中优化后的算法,应用于时间序列回归预测,结合CNN、LSTM和Attention机制,提升预测性能。GWO算法用于优化深度学习模型的超参数,模拟灰狼社群行为以求全局最优。算法流程包括CNN提取局部特征,LSTM处理序列依赖,注意力机制聚焦相关历史信息。GWO的灰狼角色划分和迭代策略助力寻找最佳解。
|
4天前
|
算法
【智能算法】11种混沌映射算法+2种智能算法示范【鲸鱼WOA、灰狼GWO算法】
【智能算法】11种混沌映射算法+2种智能算法示范【鲸鱼WOA、灰狼GWO算法】
|
4天前
|
机器学习/深度学习 算法 调度
基于改进鲸鱼优化算法的微网系统能量优化管理matlab
基于改进鲸鱼优化算法的微网系统能量优化管理matlab
|
4天前
|
机器学习/深度学习 自然语言处理 算法
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
|
4天前
|
机器学习/深度学习 算法 数据可视化
基于WOA优化的CNN-LSTM-Attention的时间序列回归预测matlab仿真
该文介绍了使用优化后的深度学习模型(基于CNN、LSTM和Attention机制)进行时间序列预测,对比了优化前后的效果,显示了性能提升。算法在MATLAB2022a中实现,利用WOA(鲸鱼优化算法)调整模型超参数。模型通过CNN提取局部特征,LSTM处理序列依赖,Attention机制关注相关历史信息。核心程序展示了WOA如何迭代优化及预测过程,包括数据归一化、网络结构分析和预测误差可视化。
|
4天前
|
机器学习/深度学习 算法 数据挖掘
基于PSO优化的CNN-LSTM-Attention的时间序列回归预测matlab仿真
该文档介绍了使用MATLAB2022A中PSO优化算法提升时间序列预测模型性能的过程。PSO优化前后对比显示了优化效果。算法基于CNN、LSTM和Attention机制构建CNN-LSTM-Attention模型,利用PSO调整模型超参数。代码示例展示了PSO的迭代优化过程及训练、预测和误差分析环节。最终,模型的预测结果以图形形式展示,并保存了相关数据。
|
4天前
|
机器学习/深度学习 算法
基于GA优化的CNN-LSTM-Attention的时间序列回归预测matlab仿真
时间序列预测是许多领域中的核心问题,如金融市场分析、气候预测、交通流量预测等。近年来,深度学习在时间序列分析上取得了显著的成果,尤其是卷积神经网络(CNN)、长短时记忆网络(LSTM)和注意力机制(Attention)的结合使用
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于二维CS-SCHT变换和LABS方法的水印嵌入和提取算法matlab仿真
该内容包括一个算法的运行展示和详细步骤,使用了MATLAB2022a。算法涉及水印嵌入和提取,利用LAB色彩空间可能用于隐藏水印。水印通过二维CS-SCHT变换、低频系数处理和特定解码策略来提取。代码段展示了水印置乱、图像处理(如噪声、旋转、剪切等攻击)以及水印的逆置乱和提取过程。最后,计算并保存了比特率,用于评估水印的稳健性。
|
2天前
|
算法
MATLAB|【免费】融合正余弦和柯西变异的麻雀优化算法SCSSA-CNN-BiLSTM双向长短期记忆网络预测模型
这段内容介绍了一个使用改进的麻雀搜索算法优化CNN-BiLSTM模型进行多输入单输出预测的程序。程序通过融合正余弦和柯西变异提升算法性能,主要优化学习率、正则化参数及BiLSTM的隐层神经元数量。它利用一段简单的风速数据进行演示,对比了改进算法与粒子群、灰狼算法的优化效果。代码包括数据导入、预处理和模型构建部分,并展示了优化前后的效果。建议使用高版本MATLAB运行。
|
4天前
|
算法 计算机视觉
基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
该内容是关于使用MATLAB2013B实现基于高斯混合模型(GMM)的视频背景提取和人员跟踪算法。算法通过GMM建立背景模型,新帧与模型比较,提取前景并进行人员跟踪。文章附有程序代码示例,展示从读取视频到结果显示的流程。最后,结果保存在Result.mat文件中。