LSTM使用MNIST手写数字识别实战的代码和心得

简介: RNN的架构除了RNN类中的模型不同,其他的构架与CNN类似,如果还没有阅读过CNN文章的可以点击下方链接进入
RNN的架构除了RNN类中的模型不同,其他的构架与CNN类似,如果还没有阅读过CNN文章的可以点击下方链接进入:
CNN使用MNIST手写数字识别实战的代码和心得
LSTM(Long Short-Term Memory长短时记忆网络)虽然在MNIST手写数字识别方面不擅长,但是也可以进行使用,效果比CNN略显逊色

对LSTM使用MNIST手写数字识别的思路图
LSTM进行MNIST手写数字识别
LSTM是在RNN的主线基础上增加了支线,增加了三个门,输入门,输出门和忘记门。
避免了可能因为加权问题,使程序忘记之前的内容,梯度弥散或者梯度爆炸。
batch_size在这里选取的是100,选择了一个隐藏层和128的神经元,对LSTM结构进行部署,
MNIST长宽为28,选取一行28作为一份数据传入input_size,RNN是按照时间序列进行传值,batch_size为100,也就是在每次传入的数据为(128,28)
进入隐藏层后,out结果张量的shape为([100, 28, 128])
在out[:, -1, :]时间序列中取得最后一次的输出,得到([100, 128])
再进入全连接层后将hidden_size的128变为所需要的输出的10种图片的维度([100, 10])

对超参数的定义

#定义超参数
input_size = 28
time_step = 28# 时间序列
Layers = 1# 隐藏单元的个数
hidden_size = 128# 每个隐藏单元中神经元个数
classes = 10
batch_size = 100
EPOCHS = 10
learning_rate = 0.01 #学习率

RNN对于数据的读取有别于CNN,按照时间来读取,在这里可以将input_size看作是图片的长,而time_step看作宽的长度。

    #Long Short-Term Memory(长短时记忆网络)
    class RNN(nn.Module):
        def __init__(self, input_size, hidden_size, Layers, classes):
            super(RNN, self).__init__()
            self.Layers = Layers
            self.hidden_size = hidden_size
            self.lstm = nn.LSTM(input_size, hidden_size, Layers, batch_first=True)
            self.fc = nn.Linear(hidden_size, classes)
        def forward(self, x):
            # 设置初始隐藏状态和单元格状态
            h0 = torch.zeros(self.Layers, x.size(0), self.hidden_size).to(device)
            c0 = torch.zeros(self.Layers, x.size(0), self.hidden_size).to(device)
            # out张量的shape(batch_size, time_step, hidden_size)
            out, _ = self.lstm(x, (h0, c0))#torch.Size([100, 28, 128])
            #out[:, -1, :].shape torch.Size([100, 128])
            # 只得到时间顺序点的最后一步
            out = self.fc(out[:, -1, :])#torch.Size([100, 10])
            return out

运行结果:

    RNN(
      (lstm): LSTM(28, 128, batch_first=True)
      (fc): Linear(in_features=128, out_features=10, bias=True)
    )
    Epoch [10/10],  Loss: 0.0115
    Test Accuracy to test: 98.07 %
相关文章
LSTM+Transformer混合模型时间序列预测实战教学
LSTM+Transformer混合模型时间序列预测实战教学
680 0
|
7月前
|
机器学习/深度学习 Python
LSTM神经网络实现对股市收盘价格的预测实战(python实现 附源码 超详细)
LSTM神经网络实现对股市收盘价格的预测实战(python实现 附源码 超详细)
282 0
|
7月前
|
机器学习/深度学习 自然语言处理 数据可视化
数据代码分享|PYTHON用NLP自然语言处理LSTM神经网络TWITTER推特灾难文本数据、词云可视化
数据代码分享|PYTHON用NLP自然语言处理LSTM神经网络TWITTER推特灾难文本数据、词云可视化
|
2月前
|
机器学习/深度学习 大数据 PyTorch
行为检测(一):openpose、LSTM、TSN、C3D等架构实现或者开源代码总结
这篇文章总结了包括openpose、LSTM、TSN和C3D在内的几种行为检测架构的实现方法和开源代码资源。
58 0
|
7月前
|
机器学习/深度学习 存储 并行计算
深入解析xLSTM:LSTM架构的演进及PyTorch代码实现详解
xLSTM的新闻大家可能前几天都已经看过了,原作者提出更强的xLSTM,可以将LSTM扩展到数十亿参数规模,我们今天就来将其与原始的lstm进行一个详细的对比,然后再使用Pytorch实现一个简单的xLSTM。
278 2
|
6月前
|
机器学习/深度学习 自然语言处理 前端开发
深度学习-[源码+数据集]基于LSTM神经网络黄金价格预测实战
深度学习-[源码+数据集]基于LSTM神经网络黄金价格预测实战
144 0
|
7月前
|
机器学习/深度学习 数据可视化 TensorFlow
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码1
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码
|
7月前
|
机器学习/深度学习 存储 数据可视化
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码2
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码
|
7月前
|
机器学习/深度学习 自然语言处理 算法
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
|
7月前
|
机器学习/深度学习 存储 自然语言处理
深入理解LSTM:案例和代码详解
深入理解LSTM:案例和代码详解
602 2

热门文章

最新文章