LeNet-5实现的过程

简介: 【7月更文挑战第25天】LeNet-5实现的过程。

LeNet-5实现的过程
(1) 输入层。输入图像的原始像素,大小为32×32×1,即长、宽为32像素,1通道(Channels),即32×32的灰度照片。
(2)卷积层(第一层)。与输入层相连,接收32×32×1的矩阵数据,卷积核(Convolutions)大小为5×5×6,大小为5,深度为6,填充方式为“VALID”,卷积步长为1,所以根据公式(其中,w为输入尺寸;k为卷积核尺寸;p为填充数量,填充方式为“VALID”时不填充,填充方式为“SAME”时使用全0填充;s为卷积步长),可得这一层的输出尺寸为,深度为6,本层的输出矩阵大小为28×28×6。
(3)池化层(第二层)。前接第一个卷积层,接收28×28×6的矩阵数据,卷积核大小为2×2,即长和宽都是2,步长为2,填充方式为“SAME”。在原始的LeNet-5中,采用的是平均值池化,本层的输出矩阵大小为14×14×6。
(4)卷积层(第三层)。前接第一个池化层,接收14×14×6的矩阵数据,卷积核大小为5×5,深度为16,填充方式为“VALID”,步长为1。本层的输出矩阵大小为10×10×16。
(5)池化层(第四层)。前接第二个卷积层,接收10×10×16的矩阵数据,卷积核大小为2×2,即长和宽都是2,步长为2,填充方式为“SAME”。本层的输出矩阵大小为5×5×16。
(6)全连接层(第五层)。前接第二个池化层,接收5×5×16的矩阵数据,在LeNet-5原始论文中称它为卷积层,但是由于卷积核的大小也是5×5,所以其和全连接层没有区别,本层的输出节点是120个。
(7)全连接层(第六层)。前接第一个全连接层,接收120个节点输入,本层的输出节点是84个。
(8)全连接层,输出层(第七层)。前接第二个全连接层,接收84个节点输入,本层的输出节点是10个。

相关文章
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
这篇文章介绍了如何使用PyTorch框架,结合CIFAR-10数据集,通过定义神经网络、损失函数和优化器,进行模型的训练和测试。
159 2
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
|
4月前
|
机器学习/深度学习
CNN网络编译和训练
【8月更文挑战第10天】CNN网络编译和训练。
96 20
|
5月前
LeNet-5实现的过程
【7月更文挑战第28天】LeNet-5实现的过程。
74 2
|
PyTorch 算法框架/工具
ShuffleNet v2网络结构复现(Pytorch版)
ShuffleNet v2网络结构复现(Pytorch版)
ShuffleNet v2网络结构复现(Pytorch版)
|
7月前
|
机器学习/深度学习 算法 PyTorch
手把手教你搭建一个深度网络模型:从输入层-激活函数-损失函数-优化方法-输出层-执行训练
我这几天遇到一个不错的范例,将的是一层一层教我们搭建一个神经网络,其实很多我接触过的伙伴对修改模型架构这块还是头疼。其实我么可以从简单的神经网络层开始,自己DIY每一层,对上手修改架构有帮助。这里用的是paddle框架,当然玩pytorch的朋友也别急着关掉,因为我这几天刷到的pytorch感觉和飞桨的这块几乎是非常相似。只是有点点表达不一样,其他都完全一样。甚至连编程习惯都非常一样。下面是来自PaddlePaddle FLuid深度学习入门与实战一书的案例。
185 0
|
机器学习/深度学习
LeNet讲解以及搭建训练过程
LeNet讲解以及搭建训练过程
|
机器学习/深度学习 计算机视觉 异构计算
AlexNet网络模型讲解搭建以及训练
AlexNet网络模型讲解搭建以及训练
|
机器学习/深度学习 数据采集 PyTorch
我用 PyTorch 复现了 LeNet-5 神经网络(自定义数据集篇)!
详细介绍了卷积神经网络 LeNet-5 的理论部分和使用 PyTorch 复现 LeNet-5 网络来解决 MNIST 数据集和 CIFAR10 数据集。然而大多数实际应用中,我们需要自己构建数据集,进行识别。因此,本文将讲解一下如何使用 LeNet-5 训练自己的数据。
298 0
|
机器学习/深度学习
LeNet5模型与全连接模型的差异
LeNet5模型与全连接模型的差异
119 0
|
机器学习/深度学习 人工智能 算法
【Pytorch神经网络理论篇】 31 图片分类模型:ResNet模型+DenseNet模型+EffcientNet模型
在深度学习领域中,模型越深意味着拟合能力越强,出现过拟合问题是正常的,训练误差越来越大却是不正常的。
388 0