【Pytorch神经网络实战案例】10 搭建深度卷积神经网络

简介: 【Pytorch神经网络实战案例】10 搭建深度卷积神经网络

6eb9cb2dde3a4266948bfd6722d36161.png


 

识别黑白图中的服装图案(Fashion-MNIST)


https://blog.csdn.net/qq_39237205/article/details/123379997

基于上述代码修改模型的组成


1 修改myConNet模型


1.1.1 修改阐述


将模型中的两个全连接层,变为全局平均池化层。


1.1.2 修改结果


### 1.5 定义模型类
class myConNet(torch.nn.Module):
    def __init__(self):
        super(myConNet, self).__init__()
        # 定义卷积层
        self.conv1 = torch.nn.Conv2d(in_channels = 1 ,out_channels = 6,kernel_size = 3)
        self.conv2 = torch.nn.Conv2d(in_channels = 6,out_channels = 12,kernel_size = 3)
        self.conv3 = torch.nn.Conv2d(in_channels = 12, out_channels=10, kernel_size = 3) # 分为10个类
    def forward(self,t):
        # 第一层卷积和池化处理
        t = self.conv1(t)
        t = F.relu(t)
        t = F.max_pool2d(t, kernel_size=2, stride=2)
        # 第二层卷积和池化处理
        t = self.conv2(t)
        t = F.relu(t)
        t = F.max_pool2d(t, kernel_size=2, stride=2)
        # 第三层卷积和池化处理
        t = self.conv3(t)
        t = F.avg_pool2d(t,kernel_size = t.shape[-2:],stride = t.shape[-2:]) # 设置池化区域为输入数据的大小(最后两个维度),完成全局平均化的处理。
        return t.reshape(t.shape[:2])


2 代码


import  torchvision
import torchvision.transforms as transforms
import pylab
import torch
from matplotlib import pyplot as plt
import torch.utils.data
import torch.nn.functional as F
import numpy as np
import os
os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"
# 定义显示图像的函数
def imshow(img):
    print("图片形状",np.shape(img))
    img = img/2 +0.5
    npimg = img.numpy()
    plt.axis('off')
    plt.imshow(np.transpose(npimg,(1,2,0)))
### 1.1 自动下载FashionMNIST数据集
data_dir = './fashion_mnist' # 设置存放位置
transform = transforms.Compose([transforms.ToTensor()]) # 可以自动将图片转化为Pytorch支持的形状[通道,高,宽],同时也将图片的数值归一化
train_dataset = torchvision.datasets.FashionMNIST(data_dir,train=True,transform=transform,download=True)
print("训练集的条数",len(train_dataset))
### 1.2 读取及显示FashionMNIST数据集中的数据
val_dataset = torchvision.datasets.FashionMNIST(root=data_dir,train=False,transform=transform)
print("测试集的条数",len(val_dataset))
##1.2.1 显示数据集中的数据
im = train_dataset[0][0].numpy()
im = im.reshape(-1,28)
pylab.imshow(im)
pylab.show()
print("当前图片的标签为",train_dataset[0][1])
### 1.3 按批次封装FashionMNIST数据集
batch_size = 10 #设置批次大小
train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(val_dataset, batch_size=batch_size, shuffle=False)
### 1.4 读取批次数据集
## 定义类别名称
classes = ('T-shirt', 'Trouser', 'Pullover', 'Dress', 'Coat', 'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle_Boot')
sample = iter(train_loader) # 将数据集转化成迭代器
images,labels = sample.next() # 从迭代器中取得一批数据
print("样本形状",np.shape(images)) # 打印样本形状
# 输出 样本形状 torch.Size([10, 1, 28, 28])
print("样本标签",labels)
# 输出 图片形状 torch.Size([3, 32, 302])
imshow(torchvision.utils.make_grid(images,nrow = batch_size)) # 数据可视化:make_grid()将该批次的图片内容组合为一个图片,用于显示,nrow用于设置生成图片中每行的样本数量
print(','.join('%5s' % classes[labels[j]] for j in range(len(images))))
# 输出 Trouser,Trouser,Dress,  Bag,Shirt,Sandal,Shirt,Dress,  Bag,  Bag
### 1.5 定义模型类
class myConNet(torch.nn.Module):
    def __init__(self):
        super(myConNet, self).__init__()
        # 定义卷积层
        self.conv1 = torch.nn.Conv2d(in_channels = 1 ,out_channels = 6,kernel_size = 3)
        self.conv2 = torch.nn.Conv2d(in_channels = 6,out_channels = 12,kernel_size = 3)
        self.conv3 = torch.nn.Conv2d(in_channels = 12, out_channels=10, kernel_size = 3) # 分为10个类
    def forward(self,t):
        # 第一层卷积和池化处理
        t = self.conv1(t)
        t = F.relu(t)
        t = F.max_pool2d(t, kernel_size=2, stride=2)
        # 第二层卷积和池化处理
        t = self.conv2(t)
        t = F.relu(t)
        t = F.max_pool2d(t, kernel_size=2, stride=2)
        # 第三层卷积和池化处理
        t = self.conv3(t)
        t = F.avg_pool2d(t,kernel_size = t.shape[-2:],stride = t.shape[-2:]) # 设置池化区域为输入数据的大小(最后两个维度),完成全局平均化的处理。
        return t.reshape(t.shape[:2])
if __name__ == '__main__':
    network = myConNet() # 生成自定义模块的实例化对象
    #指定设备
    device = torch.device("cuda:0"if torch.cuda.is_available() else "cpu")
    print(device)
    network.to(device)
    print(network) # 打印myConNet网络
### 1.6 损失函数与优化器
    criterion = torch.nn.CrossEntropyLoss()  #实例化损失函数类
    optimizer = torch.optim.Adam(network.parameters(), lr=.01)
### 1.7 训练模型
    for epoch in range(2):  # 数据集迭代2次
        running_loss = 0.0
        for i, data in enumerate(train_loader, 0):  # 循环取出批次数据 使用enumerate()函数对循环计数,第二个参数为0,表示从0开始
            inputs, labels = data
            inputs, labels = inputs.to(device), labels.to(device)  #
            optimizer.zero_grad()  # 清空之前的梯度
            outputs = network(inputs)
            loss = criterion(outputs, labels)  # 计算损失
            loss.backward()  # 反向传播
            optimizer.step()  # 更新参数
            running_loss += loss.item()
            ### 训练过程的显示
            if i % 1000 == 999:
                print('[%d, %5d] loss: %.3f' %
                      (epoch + 1, i + 1, running_loss / 2000))
                running_loss = 0.0
    print('Finished Training')
### 1.8 保存模型
    torch.save(network.state_dict(),'./models/CNNFashionMNist.PTH')
### 1.9 加载模型,并且使用该模型进行预测
    network.load_state_dict(torch.load('./models/CNNFashionMNist.PTH')) # 加载模型
    # 使用模型
    dataiter = iter(test_loader) # 获取测试数据
    images, labels = dataiter.next()
    inputs, labels = images.to(device), labels.to(device)
    imshow(torchvision.utils.make_grid(images, nrow=batch_size)) # 取出一批数据进行展示
    print('真实标签: ', ' '.join('%5s' % classes[labels[j]] for j in range(len(images))))
    # 输出:真实标签:  Ankle_Boot Pullover Trouser Trouser Shirt Trouser  Coat Shirt Sandal Sneaker
    outputs = network(inputs) # 调用network对输入样本进行预测,得到测试结果outputs
    _, predicted = torch.max(outputs, 1) # 对于预测结果outputs沿着第1维度找出最大值及其索引值,该索引值即为预测的分类结果
    print('预测结果: ', ' '.join('%5s' % classes[predicted[j]] for j in range(len(images))))
    # 输出:预测结果:  Ankle_Boot Pullover Trouser Trouser Pullover Trouser Shirt Shirt Sandal Sneaker
### 1.10 评估模型
    # 测试模型
    class_correct = list(0. for i in range(10)) # 定义列表,收集每个类的正确个数
    class_total = list(0. for i in range(10)) # 定义列表,收集每个类的总个数
    with torch.no_grad():
        for data in test_loader: # 遍历测试数据集
            images, labels = data
            inputs, labels = images.to(device), labels.to(device)
            outputs = network(inputs) # 将每个批次的数据输入模型
            _, predicted = torch.max(outputs, 1) # 计算预测结果
            predicted = predicted.to(device)
            c = (predicted == labels).squeeze() # 统计正确的个数
            for i in range(10): # 遍历所有类别
                label = labels[i]
                class_correct[label] = class_correct[label] + c[i].item() # 若该类别正确则+1
                class_total[label] = class_total[label] + 1 # 根据标签中的类别,计算类的总数
    sumacc = 0
    for i in range(10): # 输出每个类的预测结果
        Accuracy = 100 * class_correct[i] / class_total[i]
        print('Accuracy of %5s : %2d %%' % (classes[i], Accuracy))
        sumacc = sumacc + Accuracy
    print('Accuracy of all : %2d %%' % (sumacc / 10.)) # 输出最终的准确率


输出:
Accuracy of T-shirt : 72 %
Accuracy of Trouser : 96 %
Accuracy of Pullover : 75 %
Accuracy of Dress : 72 %
Accuracy of  Coat : 75 %
Accuracy of Sandal : 90 %
Accuracy of Shirt : 35 %
Accuracy of Sneaker : 93 %
Accuracy of   Bag : 92 %
Accuracy of Ankle_Boot : 92 %
Accuracy of all : 79 %


目录
相关文章
|
1月前
|
机器学习/深度学习 PyTorch TensorFlow
TensorFlow与PyTorch深度对比分析:从基础原理到实战选择的完整指南
蒋星熠Jaxonic,深度学习探索者。本文深度对比TensorFlow与PyTorch架构、性能、生态及应用场景,剖析技术选型关键,助力开发者在二进制星河中驾驭AI未来。
543 13
|
1月前
|
机器学习/深度学习 PyTorch TensorFlow
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic,深度学习探索者。深耕TensorFlow与PyTorch,分享框架对比、性能优化与实战经验,助力技术进阶。
|
2月前
|
机器学习/深度学习 数据采集 人工智能
PyTorch学习实战:AI从数学基础到模型优化全流程精解
本文系统讲解人工智能、机器学习与深度学习的层级关系,涵盖PyTorch环境配置、张量操作、数据预处理、神经网络基础及模型训练全流程,结合数学原理与代码实践,深入浅出地介绍激活函数、反向传播等核心概念,助力快速入门深度学习。
179 1
|
1月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
2月前
|
机器学习/深度学习 人工智能 算法
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic带你深入卷积神经网络(CNN)核心技术,从生物启发到数学原理,详解ResNet、注意力机制与模型优化,探索视觉智能的演进之路。
353 11
|
3月前
|
PyTorch 算法框架/工具 异构计算
PyTorch 2.0性能优化实战:4种常见代码错误严重拖慢模型
我们将深入探讨图中断(graph breaks)和多图问题对性能的负面影响,并分析PyTorch模型开发中应当避免的常见错误模式。
241 9
|
2月前
|
机器学习/深度学习 算法 PyTorch
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
|
2月前
|
机器学习/深度学习 算法 PyTorch
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
129 0
|
11月前
|
SQL 安全 网络安全
网络安全与信息安全:知识分享####
【10月更文挑战第21天】 随着数字化时代的快速发展,网络安全和信息安全已成为个人和企业不可忽视的关键问题。本文将探讨网络安全漏洞、加密技术以及安全意识的重要性,并提供一些实用的建议,帮助读者提高自身的网络安全防护能力。 ####
259 17
|
11月前
|
SQL 安全 网络安全
网络安全与信息安全:关于网络安全漏洞、加密技术、安全意识等方面的知识分享
随着互联网的普及,网络安全问题日益突出。本文将从网络安全漏洞、加密技术和安全意识三个方面进行探讨,旨在提高读者对网络安全的认识和防范能力。通过分析常见的网络安全漏洞,介绍加密技术的基本原理和应用,以及强调安全意识的重要性,帮助读者更好地保护自己的网络信息安全。
218 10

推荐镜像

更多