LSTM:在Python中使用PyTorch使用LSTM进行时间序列预测

简介: 时间序列数据,顾名思义,是一种随着时间改变的数据。例如,24小时气温数据,一个月得分产品价格数据,某一公司股票价格年度数据。高级深度学习模型,比如长短期记忆网络(LSTM),能够捕获到时间序列数据中的变化模式,进而能够预测数据的未来趋势。在这篇文章中,你将会看到如何利用LSTM算法来对时间序列数据进行预测。

时间序列数据,顾名思义,是一种随着时间改变的数据。例如,24小时气温数据,一个月得分产品价格数据,某一公司股票价格年度数据。高级深度学习模型,比如长短期记忆网络(LSTM),能够捕获到时间序列数据中的变化模式,进而能够预测数据的未来趋势。在这篇文章中,你将会看到如何利用LSTM算法来对时间序列数据进行预测。
在我早些时候的文章中,我展示了如何运用Keras库并利用LSTM进行时间序列分析,以预测未来的股票价格。将使用PyTorch库,它是最常用的深度学习的Python库之一。
在你继续之前,假定你对Python编程语言有中级水平的熟练度,并且你已经安装了PyTorch库。此外,对基本的机器学习概念和深度学习概念的了解也会有所帮助。如果你还没有安装PyTorch,你可以通过以下pip命令来安装。
$ pip install pytorch
复制代码
数据集和问题定义
我们将使用Seaborn库的内建数据集。首先,让我们导入需要的库,然后倒入数据集:
import torch
import torch.nn as nn

import seaborn as sns
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

%matplotlib inline
复制代码
让我们打印一下Seaborn的所有内建数据库:
sns.get_dataset_names()

输出:

['anscombe',
'attention',
'brain_networks',
'car_crashes',
'diamonds',
'dots',
'exercise',
'flights',
'fmri',
'gammas',
'iris',
'mpg',
'planets',
'tips',
'titanic']
复制代码
由于众所周知的原因,大家可以在Github上先下载整个数据包。
我们将使用flights数据集。如果没有网络问题可以用如下代码导入:
flight_data = sns.load_dataset("flights")
flight_data.head()
复制代码
数据集有3列:年,月和乘客数量。乘客数量一列描述了单月内航班乘客总数。数据集的形状:
flight_data.shape

output:
(144,3)
复制代码
可以看到,一共有144行和3列数据,即数据集包含12年的乘客记录。
我们的任务是利用前132个月的数据预测最后12个月乘客数。也就是说前132个月的数据用作训练,最后12个月的数据用作验证以评估模型。
让我们来绘制每个月乘客出行的频率。下面的脚本增加了默认的绘图大小。
fig_size = plt.rcParams["figure.figsize"]
fig_size[0] = 15
fig_size[1] = 5
plt.rcParams["figure.figsize"] = fig_size
复制代码
而接下来的这个脚本绘制了乘客数量的每月频率。
plt.title('Month vs Passenger')
plt.ylabel('Total Passengers')
plt.xlabel('Months')
plt.grid(True)
plt.autoscale(axis='x',tight=True)
plt.plot(flight_data['passengers'])
复制代码

如图所示,多年来,乘飞机旅行的平均人数增加了。一年内旅行的乘客数量是波动的,这是有道理的,因为在夏季或冬季休假期间,旅行的乘客数量比一年中的其他时间增加。
数据处理
数据集中列的类型是 object,如下面的代码所示:
flight_data.columns
复制代码
输出:
Index(['year', 'month', 'passengers'], dtype='object')
复制代码
数据处理的第一步是将乘客数量一列的数据类型转换为float
all_data = flight_data['passengers'].values.astype(float)
复制代码
现在,如果你打印all_data numpy数组,你应该看到以下float类型的值。
[112. 118. 132. 129. 121. 135. 148. 148. 136. 119. 104. 118. 115. 126.

                          1. 163.
                          1. 218.
                          1. 272.
                          1. 229.
                          1. 278.
                          1. 301.
                          1. 348.
                          1. 472.
                          1. 606.
      1. 432.]

复制代码
接下来,我们将把我们的数据集分为训练集和测试集。LSTM算法将在训练集上进行训练。然后,该模型将被用来对测试集进行预测。预测结果将与测试集的实际值进行比较,以评估训练模型的性能。
前132条记录将被用来训练模型,最后12条记录将被用作测试集。下面的脚本将数据分为训练集和测试集。
test_data_size = 12

train_data = all_data[:-test_data_size]
test_data = all_data[-test_data_size:]
复制代码
我们的数据集目前还没有被规范化(normalization)。最初几年的乘客总数与后来几年的乘客总数相比要少得多。对于时间序列预测来说,将数据标准化是非常重要的。我们将对数据集进行最小/最大缩放,使数据在一定的最小值和最大值范围内正常化。我们将使用sklearn.preprocessing模块中的MinMaxScaler类来扩展我们的数据。关于最小/最大缩放器实现的进一步细节,请访问这个链接。
下面的代码使用最小/最大标度器对我们的数据进行标准化处理,最小值和最大值分别为-1和1。
from sklearn.preprocessing import MinMaxScaler

scaler = MinMaxScaler(feature_range=(-1, 1))
train_data_normalized = scaler.fit_transform(train_data .reshape(-1, 1))
复制代码
这里需要提到的是,数据规范化只适用于训练数据,而不是测试数据。如果在测试数据上应用归一化,有可能会有一些信息从训练集泄露到测试集。
下一步是将我们的数据集转换成张量,因为PyTorch模型是使用张量进行训练的。为了将数据集转换为张量,我们可以简单地将我们的数据集传递给FloatTensor对象的构造函数,如下所示。
train_data_normalized = torch.FloatTensor(train_data_normalized).view(-1)
复制代码
最后的预处理步骤是将我们的训练数据转换成序列和相应的标签。
你可以使用任何序列长度,这取决于领域知识。然而,在我们的数据集中,使用12的序列长度是很方便的,因为我们有月度数据,一年有12个月。如果我们有每日数据,更好的序列长度是365,即一年中的天数。因此,我们将训练时的输入序列长度设置为12。
train_window = 12
复制代码
接下来,我们将定义一个名为create_inout_sequences的函数。该函数将接受原始输入数据,并将返回一个元组列表。在每个元组中,第一个元素将包含12个项目的列表,对应于12个月内旅行的乘客数量,第二个元组元素将包含一个项目,即12+1个月内的乘客数量。
def create_inout_sequences(input_data, tw):

inout_seq = []
L = len(input_data)
for i in range(L-tw):
    train_seq = input_data[i:i+tw]
    train_label = input_data[i+tw:i+tw+1]
    inout_seq.append((train_seq ,train_label))
return inout_seq

复制代码
运行这个脚本来创造用来训练的列表和相关的标签:
train_inout_seq = create_inout_sequences(train_data_normalized, train_window)
复制代码
如果你打印train_inout_seq列表的长度,你会发现它包含120个项目。这是因为虽然训练集包含132个元素,但序列长度为12,这意味着第一个序列由前12个项目组成,第13个项目是第一个序列的标签。同样地,第二个序列从第二项开始,在第13项结束,而第14项是第二个序列的标签,以此类推。
现在让我们打印train_inout_seq列表的前5项。
train_inout_seq[:5]
复制代码
Output:
[(tensor([-0.9648, -0.9385, -0.8769, -0.8901, -0.9253, -0.8637, -0.8066, -0.8066,

      -0.8593, -0.9341, -1.0000, -0.9385]), tensor([-0.9516])),

(tensor([-0.9385, -0.8769, -0.8901, -0.9253, -0.8637, -0.8066, -0.8066, -0.8593,

      -0.9341, -1.0000, -0.9385, -0.9516]),

tensor([-0.9033])),
(tensor([-0.8769, -0.8901, -0.9253, -0.8637, -0.8066, -0.8066, -0.8593, -0.9341,

      -1.0000, -0.9385, -0.9516, -0.9033]), tensor([-0.8374])),

(tensor([-0.8901, -0.9253, -0.8637, -0.8066, -0.8066, -0.8593, -0.9341, -1.0000,

      -0.9385, -0.9516, -0.9033, -0.8374]), tensor([-0.8637])),

(tensor([-0.9253, -0.8637, -0.8066, -0.8066, -0.8593, -0.9341, -1.0000, -0.9385,

      -0.9516, -0.9033, -0.8374, -0.8637]), tensor([-0.9077]))]

复制代码
你可以看到,每个项目都是一个元组,其中第一个元素由一个序列的12个项目组成,第二个元组元素包含相应的标签。

相关文章
|
18小时前
|
机器学习/深度学习 调度 Python
SOFTS: 时间序列预测的最新模型以及Python使用示例
这是2024年4月《SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion》中提出的新模型,采用集中策略来学习不同序列之间的交互,从而在多变量预测任务中获得最先进的性能。
11 4
|
1天前
|
存储 索引 Python
【Python列表解锁】:掌握序列精髓,驾驭动态数据集合
【Python列表解锁】:掌握序列精髓,驾驭动态数据集合
|
2天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
|
6天前
|
机器学习/深度学习 算法 数据可视化
基于GA遗传优化的CNN-LSTM的时间序列回归预测matlab仿真
摘要:该内容展示了基于遗传算法优化的CNN-LSTM时间序列预测模型在matlab2022a中的应用。核心程序包括遗传算法优化过程、网络训练、误差分析及预测结果的可视化。模型通过GA调整CNN-LSTM的超参数,提升预测准确性和稳定性。算法流程涉及初始化、评估、选择、交叉和变异等步骤,旨在找到最佳超参数以优化模型性能。
|
10天前
|
机器学习/深度学习 自然语言处理 TensorFlow
|
11天前
|
数据库 索引 Python
10.Python【序列】- 字符串(下)
10.Python【序列】- 字符串
17 0
|
11天前
|
存储 数据安全/隐私保护 索引
10.Python【序列】- 字符串(上)
10.Python【序列】- 字符串
29 3
|
11天前
|
运维 索引 Python
9.Python【非序列】- 集合
9.Python【非序列】- 集合
20 2
|
11天前
|
索引 Python
8.Python【非序列】- 字典
8.Python【非序列】- 字典
11 2
|
11天前
|
索引 Python
7.Python【序列】- 元组
7.Python【序列】- 元组