Matlab用深度学习循环神经网络RNN长短期记忆LSTM进行波形时间序列数据预测

简介: Matlab用深度学习循环神经网络RNN长短期记忆LSTM进行波形时间序列数据预测

原文链接:http://tecdat.cn/?p=27279 


此示例说明如何使用长短期记忆 (LSTM) 网络预测时间序列。


LSTM神经网络架构和原理及其在Python中的预测应用

LSTM 网络是一种循环神经网络 (RNN),它通过循环时间步长和更新网络状态来处理输入数据。网络状态包含在所有先前时间步长中记住的信息。您可以使用 LSTM 网络使用先前的时间步长作为输入来预测时间序列或序列的后续值。要训练 LSTM 网络进行时间序列预测,请训练具有序列输出的回归 LSTM 网络,其中响应(目标)是训练序列,其值偏移了一个时间步长。换句话说,在输入序列的每个时间步,LSTM 网络学习预测下一个时间步的值。

有两种预测方法:开环预测和闭环预测。


开环预测仅使用输入数据预测序列中的下一个时间步长。在对后续时间步进行预测时,您会从数据源中收集真实值并将其用作输入。


闭环预测通过使用先前的预测作为输入来预测序列中的后续时间步长。在这种情况下,模型不需要真实值来进行预测。

此图显示了一个示例序列,其中包含使用闭环预测的预测值。

此示例使用波形数据集,其中包含 2000 个具有三个通道的不同长度的综合生成波形。该示例训练 LSTM 网络以使用闭环和开环预测在给定先前时间步长的值的情况下预测波形的未来值。


点击标题查阅往期内容


Python用RNN神经网络:LSTM、GRU、回归和ARIMA对COVID19新冠疫情人数时间序列预测


01

02

03

04


加载数据


查看前几个序列的大小。

data(1:5)

查看声道数量。为了训练网络,每个序列必须具有相同数量的声道。

nufdmChahgnnhels = 3

可视化图中的前几个序列。

for i = 1:4    nexttsdile    staasdcgafdgkedplot(dadgta{i}')

将数据划分为训练集和测试集。将 90% 的观察结果用于训练,其余用于测试。


准备训练数据


要预测序列的未来时间步长的值,请将目标指定为训练序列,其值移动一个时间步长。换句话说,在输入序列的每个时间步,LSTM 网络学习预测下一个时间步的值。预测变量是没有最终时间步长的训练序列。

for n = 1:nasumel(dddataTrainsf)
    Xd = dataTrgainsg{n};
    XgfTrdfain{n} = dfX(:,1:efgdnd-1);
    TTraign{n} = gXd(:,2:efnd);end

为了更好地拟合并防止训练发散,请将预测变量和目标归一化以具有零均值和单位方差。进行预测时,还必须使用与训练数据相同的统计数据对测试数据进行标准化。要轻松计算所有序列的均值和标准差,请在时间维度上连接序列。


定义 LSTM 网络架构


创建一个 LSTM 回归网络。


使用输入大小与输入数据的通道数相匹配的序列输入层。


使用具有 128 个隐藏单元的 LSTM 层。隐藏单元的数量决定了层学习了多少信息。使用更多隐藏单元可以产生更准确的结果,但更有可能导致对训练数据的过度拟合。


要输出与输入数据具有相同通道数的序列,请包含一个输出大小与输入数据的通道数相匹配的全连接层。


最后,包括一个回归层。


指定训练选项


指定训练选项。


使用 Adam 优化进行训练。


训练 200 个 epoch。对于更大的数据集,您可能不需要训练尽可能多的 epoch 来获得良好的拟合。


在每个小批量中,左填充序列,使它们具有相同的长度。

trainingOptions("adam", ...    MaxEpochs=200, ...


训练神经网络


指定的训练选项训练 LSTM 网络 。

测试网络


使用与训练数据相同的步骤准备用于预测的测试数据。

使用从训练数据计算的统计数据对测试数据进行标准化。将目标指定为测试序列,其值偏移一个时间步,将预测变量指定为没有最终时间步的测试序列。

for n = 1:sifze(dsdatagsdTest,1)
    Xsdg = datsdagesdt{n};
    XTdsgsst{n} = (Xd(:,1:dend-1) - muX) ./ sdgdigmaX;
    TTedgst{n} = (X(:,2:enddg) - muT) ./ sisggaT;end

使用测试数据进行预测。指定与训练相同的填充选项。

YTasedst = prsdfdict(nedst,fXTsdest,SeqfuencePaddfsdingDidfrecdtionf="ledfft");

为了评估准确性,对于每个测试序列,计算预测和目标之间的均方根误差 (RMSE)。

   rmse(i) = sqrt(mean((YTesdst{i} - TTfedft{i}).^2,"all"));

在直方图中可视化错误。较低的值表示较高的准确性。

计算所有测试观测值的平均 RMSE。

mean(rmse)

预测未来时间步长


给定输入时间序列或序列,要预测多个未来时间步的值。对于每个预测,使用之前的预测作为函数的输入。

在图中可视化其中一个测试序列。

figurestfackddefdsplot(X'

开环预测


开环预测仅使用输入数据预测序列中的下一个时间步长。在对后续时间步进行预测时,您会从数据源中收集真实值并将其用作输入。例如,假设您想使用在时间步 1 到 t-1 中收集的数据来预测序列的时间步 t 的值。要对时间步 t+1 进行预测,请等到您记录时间步 t 的真实值并将其用作输入以进行下一个预测。当您在进行下一次预测之前有真实值要提供给网络时,请使用开环预测。

使用输入数据的前 75 个时间步更新网络状态。

ngdfget = resasegftSdtsfte(net);
offssdet = 75;
\[nefgt,~\] = predfgdictAndUpdateStdfgate(nfget,X(:,1:offsedfd));

为了预测进一步的预测,更新网络状态。通过循环输入数据的时间步并将它们用作网络的输入来预测测试观察的剩余时间步的值。

将预测值与目标值进行比较。

for i = 1:numCashdananels
    nexdttdfgileg
    ploft(T(i,:))
    holfgd on
    plot(offfset:gnumTimeSdfghjteps,\[T(i,ofkklkset) Y(i,:)\],'--')

闭环预测


闭环预测通过使用先前的预测作为输入来预测序列中的后续时间步长。在这种情况下,模型不需要真实值来进行预测。例如,假设您想仅使用在时间步 1 到 t-1 中收集的数据来预测序列的时间步 t 到 t+k 的值。要对时间步 i 进行预测,请使用时间步 i-1 的预测值作为输入。使用闭环预测来预测多个后续时间步长,或者当您在进行下一个预测之前没有向网络提供真实值时。

通过首先使用函数重置状态来初始化网络状态 ,然后 使用输入数据的前几个时间步长resetState 进行初始预测 。Z使用输入数据的前 75 个时间步更新网络状态。

newt = resetyeriuiutState(net);
ofrfstydet = sizety(X,2);
\[nest,h\] = peeredictAnytdUpdtateState(net,X);

为了预测进一步的预测,循环时间步长并更新网络状态。通过迭代地将先前的预测值传递给网络来预测接下来的 200 个时间步长。由于网络不需要输入数据来进行任何进一步的预测,因此您可以指定任意数量的时间步长进行预测。

numPreddshictihgonTimeshgSteps = 200;dghXt = Z(:,endesrgs);Ysf = zergfsos(sfgsnumChannels,numPrhedictionTimlhelhhjSteps);
for t = 1:numPredicthjjionlkjTimeSteps
    \[nexfdt,Y(:,t)\] = predic'ltAndUpdatlkeStak;lte(net,Xt);
    gXt = Y(:,t);
end

在图中可视化预测值。

numTimdgegSteps = offset + numPralkjedicltionTimeSteps;figure
t = tiledlayjout(numklChannels,1);for i = 1:numChannselgs
    nextgtilgfhe
    plogghft(T(i,1:ogfhvset))
    hobld bvon
    plot(offsenbt:nmnumTimesbn,Stesdps,\[T(i,a) Y(i,:)\],'--')

闭环预测允许您预测任意数量的时间步长,但与开环预测相比可能不太准确,因为网络在预测过程中无法访问真实值。

相关文章
|
5天前
|
机器学习/深度学习 算法 Python
matlab思维进化算法优化BP神经网络
matlab思维进化算法优化BP神经网络
|
1月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GA遗传优化TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB2022a开发,提供无水印算法运行效果预览及核心程序(含详细中文注释与操作视频)。通过结合时间卷积神经网络(TCN)和遗传算法(GA),实现复杂非线性时间序列的高精度预测。TCN利用因果卷积层与残差连接提取时间特征,GA优化超参数(如卷积核大小、层数等),显著提升模型性能。项目涵盖理论概述、程序代码及完整实现流程,适用于金融、气象、工业等领域的时间序列预测任务。
|
2月前
|
机器学习/深度学习 算法 JavaScript
基于GA遗传优化TCN时间卷积神经网络时间序列预测算法matlab仿真
本内容介绍了一种基于遗传算法优化的时间卷积神经网络(TCN)用于时间序列预测的方法。算法运行于 Matlab2022a,完整程序无水印,附带核心代码、中文注释及操作视频。TCN通过因果卷积层与残差连接学习时间序列复杂特征,但其性能依赖超参数设置。遗传算法通过对种群迭代优化,确定最佳超参数组合,提升预测精度。此方法适用于金融、气象等领域,实现更准确可靠的未来趋势预测。
|
2月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
2月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GA遗传优化TCN-LSTM时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB 2022a实现了一种结合遗传算法(GA)优化的时间卷积神经网络(TCN)时间序列预测算法。通过GA全局搜索能力优化TCN超参数(如卷积核大小、层数等),显著提升模型性能,优于传统GA遗传优化TCN方法。项目提供完整代码(含详细中文注释)及操作视频,运行后无水印效果预览。 核心内容包括:1) 时间序列预测理论概述;2) TCN结构(因果卷积层与残差连接);3) GA优化流程(染色体编码、适应度评估等)。最终模型在金融、气象等领域具备广泛应用价值,可实现更精准可靠的预测结果。
|
3月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
|
2月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本内容介绍了一种基于CNN-LSTM-SAM网络与鲸鱼优化算法(WOA)的时间序列预测方法。算法运行于Matlab2022a,完整程序无水印并附带中文注释及操作视频。核心流程包括数据归一化、种群初始化、适应度计算及参数更新,最终输出最优网络参数完成预测。CNN层提取局部特征,LSTM层捕捉长期依赖关系,自注意力机制聚焦全局特性,全连接层整合特征输出结果,适用于复杂非线性时间序列预测任务。
|
9月前
|
机器学习/深度学习 API 异构计算
7.1.3.2、使用飞桨实现基于LSTM的情感分析模型的网络定义
该文章详细介绍了如何使用飞桨框架实现基于LSTM的情感分析模型,包括网络定义、模型训练、评估和预测的完整流程,并提供了相应的代码实现。
|
7月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
|
9月前
|
机器学习/深度学习
【机器学习】面试题:LSTM长短期记忆网络的理解?LSTM是怎么解决梯度消失的问题的?还有哪些其它的解决梯度消失或梯度爆炸的方法?
长短时记忆网络(LSTM)的基本概念、解决梯度消失问题的机制,以及介绍了包括梯度裁剪、改变激活函数、残差结构和Batch Normalization在内的其他方法来解决梯度消失或梯度爆炸问题。
397 2