PyTorch使用神经网络进行手写数字识别实战(附源码,包括损失图像和准确率图像)

简介: PyTorch使用神经网络进行手写数字识别实战(附源码,包括损失图像和准确率图像)

全部源码请点赞关注收藏后评论区留言即可~~~

下面使用torchvision.datasets.MNIST构建手写数字数据集。

1:数据预处理

PyTorch提供了torchvision.transforms用于处理数据及数据增强,它可以将数据从[0,255]映射到[0,1]

2:读取训练数据

准备好处理数据的流程后,就可以读取用于训练的数据了,torch.util.data.DataLoader提供了迭代数据,随机抽取数据,批量化数据等等功能 读取效果如下

预处理过后的数据如下

3:构建神经网络模型

下面构建用于识别手写数字的神经网络模型

class MLP(nn.Module):
    def __init__(self):
        super(MLP,self).__init__()
        self.inputlayer=nn.Sequential(nn.Linear(28*28,256),nn.ReLU(),nn.Dropout(0.2))
        self.hiddenlayer=nn.Sequential(nn.Linear(256,256),nn.ReLU(),nn.Dropout(0.2))
        self.outputlayer=nn.Sequential(nn.Linear(256,10))
    def forward(self,x):
        x=x.view(x.size(0),-1)
        x=self.inputlayer(x)
        x=self.hiddenlayer(x)
        x=self.outputlayer(x)
        return x

可以直接通过打印nn.Module的对象看到其网络结构

4:模型评估

在准备好数据和模型后,就可以训练模型了,下面分别定义了数据处理和加载流程,模型,优化器,损失函数以及用准确率评估模型能力。

得到的结果如下

训练一次 可以看出比较混乱 没有说明规律可言

训练五次的损失函数如下 可见随着训练次数的增加是逐渐收敛的,规律也非常明显

 

准确率图像如下

最后 部分源码如下

import torch
import torchvision
import  torch.nn as nn
from torch import  optim
from tqdm import  tqdm
import torch.utils.data.dataset
mnist=torchvision.datasets.MNIST(root='~',train=True,download=True)
for i,j in enumerate(np.random.randint(0,len(mnist),(10,))):
    data,label=mnist[j]
    plt.subplot(2,5,i+1)
    plt.show()
trans=transforms.Compose(
    [
        transforms.ToTensor(),
        transforms.Normalize((0.1307,),(0.3081,))
    ]
)
normalized=trans(mnist[0][0])
from torchvision import  transforms
mnist=torchvision.datasets.MNIST(root='~',train=True,download=True,transform=trans)
def imshow(img):
    img=img*0.3081+0.1307
    npimg=img.numpy()
    plt.imshow(np.transpose(npimg,(1,2,0)))
dataloader=DataLoader(mnist,batch_size=4,shuffle=True,num_workers=0)
images,labels=next(iter(dataloader))
imshow(torchvision.utils.make_grid(images))
class MLP(nn.Module):
    def __init__(self):
        super(MLP,self).__init__()
        self.inputlayer=nn.Sequential(nn.Linear(28*28,256),nn.ReLU(),nn.Dropout(0.2))
        self.hiddenlayer=nn.Sequential(nn.Linear(256,256),nn.ReLU(),nn.Dropout(0.2))
        self.outputlayer=nn.Sequential(nn.Linear(256,10))
    def forward(self,x):
        x=x.view(x.size(0),-1)
        x=self.inputlayer(x)
        x=self.hiddenlayer(x)
        x=self.outputlayer(x)
        return x
print(MLP())
trans=transforms.Compose(
    [
        transforms.ToTensor(),
        transforms.Normalize((0.1307,),(0.3081,))
    ]
)
al=torchvision.datasets.MNIST(root='~',train=False,download=True,transform=trans)
trainloader=DataLoader(mnist_train,batch_size=16,shuffle=True,num_workers=0)
valloader=DataLoader(mnist_val,batch_size=16,shuffle=True,num_workers=0)
#模型
model=MLP()
#优化器
optimizer=oD(model.parameters(),lr=0.01,momentum=0.9)
#损失函数
celoss=nn.ssEntropyLoss()
best_acc=0
#计算准确率
def accuracy(pred,target):
    pred_label=torch.amax(pred,1)
    correct=sum(pred_label==target).to(torch.float)
    return correct,len(pred)
acc={'train':[],"val}
loss_all={'train':[],"val":[]}
for epoch in tqdm(range(5)):
    model.eval()
    numer_val,denumer_val,loss_tr=0.,0.,0.
    with torch.no_grad():
        for data,target in valloader:
            output=model(data)
            loss=celoss(output,target)
            loss_tr+=loss.data
            num,denum=accuracy(output,target)
            numer_val+=num
            denumer_val+=denum
    #设置为训练模式
    model.train()
    numer_tr,denumer_tr,loss_val=0.,0.,0.
    for data,target in trainloader:
        optizer.zero_grad()
        output=model(data)
        loss=celoss(output,target)
        loss_val+=loss.data
        loss.backward()
        optimer.step()
        num,denum=accuracy(output,target)
        numer_tr+=num
        denumer_tr+=denum
    loss_all['train'].append(loss_tr/len(trainloader))
    loss_all['val'].aend(lss_val/len(valloader))
    acc['train'].pend(numer_tr/denumer_tr)
    acc['val'].append(numer_val/denumer_val)
"""
plt.plot(loss_all['train'])
plt.plot(loss_all['val'])
"""
plt.plot(acc['train'])
plt.plot(acc['val'])
plt.show()

创作不易 觉得有帮助请点赞关注收藏~~~

相关文章
|
23天前
|
机器学习/深度学习 算法 PyTorch
Perforated Backpropagation:神经网络优化的创新技术及PyTorch使用指南
深度学习近年来在多个领域取得了显著进展,但其核心组件——人工神经元和反向传播算法自提出以来鲜有根本性突破。穿孔反向传播(Perforated Backpropagation)技术通过引入“树突”机制,模仿生物神经元的计算能力,实现了对传统神经元的增强。该技术利用基于协方差的损失函数训练树突节点,使其能够识别神经元分类中的异常模式,从而提升整体网络性能。实验表明,该方法不仅可提高模型精度(如BERT模型准确率提升3%-17%),还能实现高效模型压缩(参数减少44%而无性能损失)。这一革新为深度学习的基础构建模块带来了新的可能性,尤其适用于边缘设备和大规模模型优化场景。
59 16
Perforated Backpropagation:神经网络优化的创新技术及PyTorch使用指南
|
2月前
|
网络协议 物联网
VB6网络通信软件上位机开发,TCP网络通信,读写数据并处理,完整源码下载
本文介绍使用VB6开发网络通信上位机客户端程序,涵盖Winsock控件的引入与使用,包括连接服务端、发送数据(如通过`Winsock1.SendData`方法)及接收数据(利用`Winsock1_DataArrival`事件)。代码实现TCP网络通信,可读写并处理16进制数据,适用于自动化和工业控制领域。提供完整源码下载,适合学习VB6网络程序开发。 下载链接:[完整源码](http://xzios.cn:86/WJGL/DownLoadDetial?Id=20)
85 12
|
2月前
|
机器学习/深度学习 自然语言处理 算法
PyTorch PINN实战:用深度学习求解微分方程
物理信息神经网络(PINN)是一种将深度学习与物理定律结合的创新方法,特别适用于微分方程求解。传统神经网络依赖大规模标记数据,而PINN通过将微分方程约束嵌入损失函数,显著提高数据效率。它能在流体动力学、量子力学等领域实现高效建模,弥补了传统数值方法在高维复杂问题上的不足。尽管计算成本较高且对超参数敏感,PINN仍展现出强大的泛化能力和鲁棒性,为科学计算提供了新路径。文章详细介绍了PINN的工作原理、技术优势及局限性,并通过Python代码演示了其在微分方程求解中的应用,验证了其与解析解的高度一致性。
194 5
PyTorch PINN实战:用深度学习求解微分方程
|
2月前
|
机器学习/深度学习 数据采集 编解码
基于DeepSeek的生成对抗网络(GAN)在图像生成中的应用
生成对抗网络(GAN)通过生成器和判别器的对抗训练,生成高质量的合成数据,在图像生成等领域展现巨大潜力。DeepSeek作为高效深度学习框架,提供便捷API支持GAN快速实现和优化。本文详细介绍基于DeepSeek的GAN技术,涵盖基本原理、实现步骤及代码示例,展示其在图像生成中的应用,并探讨优化与改进方法,如WGAN、CGAN等,解决模式崩溃、训练不稳定等问题。最后,总结GAN在艺术创作、数据增强、图像修复等场景的应用前景。
333 16
|
2月前
|
前端开发 Java 关系型数据库
基于ssm的网络直播带货管理系统,附源码+数据库+论文
该项目为网络直播带货网站,包含管理员和用户两个角色。管理员可进行主页、个人中心、用户管理、商品分类与信息管理、系统及订单管理;用户可浏览主页、管理个人中心、收藏和订单。系统基于Java开发,采用B/S架构,前端使用Vue、JSP等技术,后端为SSM框架,数据库为MySQL。项目运行环境为Windows,支持JDK8、Tomcat8.5。提供演示视频和详细文档截图。
91 10
|
2月前
|
JavaScript 算法 前端开发
JS数组操作方法全景图,全网最全构建完整知识网络!js数组操作方法全集(实现筛选转换、随机排序洗牌算法、复杂数据处理统计等情景详解,附大量源码和易错点解析)
这些方法提供了对数组的全面操作,包括搜索、遍历、转换和聚合等。通过分为原地操作方法、非原地操作方法和其他方法便于您理解和记忆,并熟悉他们各自的使用方法与使用范围。详细的案例与进阶使用,方便您理解数组操作的底层原理。链式调用的几个案例,让您玩转数组操作。 只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~
|
6月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
161 3
|
6月前
|
机器学习/深度学习 人工智能 自动驾驶
深度学习的奇迹:如何用神经网络识别图像
【10月更文挑战第33天】在这篇文章中,我们将探索深度学习的奇妙世界,特别是卷积神经网络(CNN)在图像识别中的应用。我们将通过一个简单的代码示例,展示如何使用Python和Keras库构建一个能够识别手写数字的神经网络。这不仅是对深度学习概念的直观介绍,也是对技术实践的一次尝试。让我们一起踏上这段探索之旅,看看数据、模型和代码是如何交织在一起,创造出令人惊叹的结果。
81 0
|
8月前
|
机器学习/深度学习
小土堆-pytorch-神经网络-损失函数与反向传播_笔记
在使用损失函数时,关键在于匹配输入和输出形状。例如,在L1Loss中,输入形状中的N代表批量大小。以下是具体示例:对于相同形状的输入和目标张量,L1Loss默认计算差值并求平均;此外,均方误差(MSE)也是常用损失函数。实战中,损失函数用于计算模型输出与真实标签间的差距,并通过反向传播更新模型参数。
|
7月前
|
机器学习/深度学习 PyTorch API
深度学习入门:卷积神经网络 | CNN概述,图像基础知识,卷积层,池化层(超详解!!!)
深度学习入门:卷积神经网络 | CNN概述,图像基础知识,卷积层,池化层(超详解!!!)

热门文章

最新文章