Pytorch教程[10]完整模型训练套路

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,5000CU*H 3个月
简介: Pytorch教程[10]完整模型训练套路

一般的模型构建都是按照下图这样的流程

image.png

下面分享一个自己手动搭建的网络

image.png

from model import *
import torchvision
import torch
from torch.utils.tensorboard import SummaryWriter
from torchvision import transforms
from torch import nn
from torch.utils.data import DataLoader
#数据增强
data_transforms = transforms.Compose([
        transforms.RandomRotation(45),
        transforms.ToTensor(),
    ])
#准备数据集
#train_data = torchvision.datasets.CIFAR10(root="D:\pythonProject_pytorchstudy", train=True, transform=torchvision.transforms.ToTensor(), download=False)
#test_data = torchvision.datasets.CIFAR10(root="D:\pythonProject_pytorchstudy", train=False, transform=torchvision.transforms.ToTensor(), download=False)
train_data = torchvision.datasets.CIFAR10(root="D:\pythonProject_pytorchstudy", train=True, transform=data_transforms, download=False)
test_data = torchvision.datasets.CIFAR10(root="D:\pythonProject_pytorchstudy", train=False, transform=torchvision.transforms.ToTensor(), download=False)
#数据集长度
train_data_size = len(train_data)
test_data_size = len(test_data)
print("训练集的长度为:{}".format(train_data_size))
print("测试集的长度为:{}".format(test_data_size))
#利用Dataloader加载数据集
train_dataloader =DataLoader(train_data,batch_size=64)
test_dataloader =DataLoader(test_data,batch_size=64)
#搭建神经网络
#model.py
#创建网络模型
Yolo = My_Model()
################################
if torch.cuda.is_available():  #
    Yolo = My_Model().cuda()   #
################################
#损失函数
loss_fn = nn.CrossEntropyLoss()
################################
if torch.cuda.is_available():  #
    loss_fn = loss_fn.cuda()   #
################################
#优化器
learning_rate = 0.01 #1e-2 = 1 x (10)^(-2) =1/100 =0.01
optimizer  = torch.optim.SGD(Yolo.parameters(), lr = learning_rate, )
#设置训练网络的参数
total_train_step = 0
#记录测试次数
total_test_step = 0
#训练轮数
epoch = 10
#添加tensorboard
writer = SummaryWriter("D:\pythonProject_pytorchstudy\cifar-10-batches-py\logs_train")
for i in range(epoch):
    print("第{}轮训练开始".format(i+1))
    #训练步骤开始
    Yolo.train()
    for data in train_dataloader:
        imgs,targets = data
        ################################
        if torch.cuda.is_available():  #
            imgs = imgs.cuda()         #
            targets = targets.cuda()   #
        ################################
        outputs = Yolo(imgs)
        loss  = loss_fn(outputs,targets)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        total_train_step += 1
        if total_train_step % 30 ==0:
            print("Iteration:{},loss:{}".format(total_train_step,loss.item()))
            writer.add_scalar("train_loss", loss.item(),total_train_step)
    #测试步骤开始
    Yolo.eval()
    total_test_loss = 0
    total_accuracy = 0
    with torch.no_grad(): #让网络中的梯度没有
        for data in test_dataloader:
            imgs, targets = data
            ################################
            if torch.cuda.is_available():  #
                imgs = imgs.cuda()         #
                targets = targets.cuda()   #
            ################################
            outputs = Yolo(imgs)
            loss = loss_fn(outputs,targets)
            total_test_loss = total_test_loss + loss.item()
            accuracy = (outputs.argmax(1) == targets).sum()
            total_accuracy = total_accuracy + accuracy
        print("整体测试集上的Loss{}".format(total_test_loss))
        print("整体测试集上的正确率:{}".format(total_accuracy/test_data_size))
        writer.add_scalar("test_loss",total_test_loss,total_test_step)
        writer.add_scalar("test_accuracy",total_accuracy/test_data_size,total_test_step)
        total_train_step += 1
    torch.save(Yolo,"YOLO_{}".format(i+1))
    #torch.save(Yolo.state_dict(),"Yolo_{}.pth".format(i+1))
    print("模型已保存")
writer.close()
import torch
from torch import nn
class My_Model(nn.Module):
    def __init__(self):
        super(My_Model, self).__init__()
        self.model = nn.Sequential(
            nn.Conv2d(3, 32, 5, 1, 2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 32, 5, 1, 2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 64, 5, 1, 2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(64 * 4 * 4, 64),
            nn.Linear(64, 10)
        )
    def forward(self, x):
        x = self.model(x)
        return x
    # Yolo = My_Model()
    # input = torch.ones(64,3,32,32)
    # output = Yolo(input)
    # print(output.shape)
相关文章
|
1月前
|
存储 物联网 PyTorch
基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例
**Torchtune**是由PyTorch团队开发的一个专门用于LLM微调的库。它旨在简化LLM的微调流程,提供了一系列高级API和预置的最佳实践
139 59
基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例
|
2月前
|
算法 PyTorch 算法框架/工具
Pytorch学习笔记(九):Pytorch模型的FLOPs、模型参数量等信息输出(torchstat、thop、ptflops、torchsummary)
本文介绍了如何使用torchstat、thop、ptflops和torchsummary等工具来计算Pytorch模型的FLOPs、模型参数量等信息。
247 2
|
4月前
|
机器学习/深度学习 并行计算 PyTorch
优化技巧与策略:提高 PyTorch 模型训练效率
【8月更文第29天】在深度学习领域中,PyTorch 是一个非常流行的框架,被广泛应用于各种机器学习任务中。然而,随着模型复杂度的增加以及数据集规模的增长,如何有效地训练这些模型成为了一个重要的问题。本文将介绍一系列优化技巧和策略,帮助提高 PyTorch 模型训练的效率。
336 0
|
15天前
|
并行计算 监控 搜索推荐
使用 PyTorch-BigGraph 构建和部署大规模图嵌入的完整教程
当处理大规模图数据时,复杂性难以避免。PyTorch-BigGraph (PBG) 是一款专为此设计的工具,能够高效处理数十亿节点和边的图数据。PBG通过多GPU或节点无缝扩展,利用高效的分区技术,生成准确的嵌入表示,适用于社交网络、推荐系统和知识图谱等领域。本文详细介绍PBG的设置、训练和优化方法,涵盖环境配置、数据准备、模型训练、性能优化和实际应用案例,帮助读者高效处理大规模图数据。
44 5
|
2月前
|
机器学习/深度学习 自然语言处理 监控
利用 PyTorch Lightning 搭建一个文本分类模型
利用 PyTorch Lightning 搭建一个文本分类模型
61 8
利用 PyTorch Lightning 搭建一个文本分类模型
|
2月前
|
机器学习/深度学习 自然语言处理 数据建模
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨了Transformer模型中的三种关键注意力机制:自注意力、交叉注意力和因果自注意力,这些机制是GPT-4、Llama等大型语言模型的核心。文章不仅讲解了理论概念,还通过Python和PyTorch从零开始实现这些机制,帮助读者深入理解其内部工作原理。自注意力机制通过整合上下文信息增强了输入嵌入,多头注意力则通过多个并行的注意力头捕捉不同类型的依赖关系。交叉注意力则允许模型在两个不同输入序列间传递信息,适用于机器翻译和图像描述等任务。因果自注意力确保模型在生成文本时仅考虑先前的上下文,适用于解码器风格的模型。通过本文的详细解析和代码实现,读者可以全面掌握这些机制的应用潜力。
77 3
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
|
3月前
|
并行计算 PyTorch 算法框架/工具
基于CUDA12.1+CUDNN8.9+PYTORCH2.3.1,实现自定义数据集训练
文章介绍了如何在CUDA 12.1、CUDNN 8.9和PyTorch 2.3.1环境下实现自定义数据集的训练,包括环境配置、预览结果和核心步骤,以及遇到问题的解决方法和参考链接。
145 4
基于CUDA12.1+CUDNN8.9+PYTORCH2.3.1,实现自定义数据集训练
|
3月前
|
机器学习/深度学习 PyTorch 调度
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。
163 4
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
|
3月前
|
机器学习/深度学习 监控 PyTorch
PyTorch 模型调试与故障排除指南
在深度学习领域,PyTorch 成为开发和训练神经网络的主要框架之一。本文为 PyTorch 开发者提供全面的调试指南,涵盖从基础概念到高级技术的内容。目标读者包括初学者、中级开发者和高级工程师。本文探讨常见问题及解决方案,帮助读者理解 PyTorch 的核心概念、掌握调试策略、识别性能瓶颈,并通过实际案例获得实践经验。无论是在构建简单神经网络还是复杂模型,本文都将提供宝贵的洞察和实用技巧,帮助开发者更高效地开发和优化 PyTorch 模型。
45 3
PyTorch 模型调试与故障排除指南
|
2月前
|
存储 并行计算 PyTorch
探索PyTorch:模型的定义和保存方法
探索PyTorch:模型的定义和保存方法

热门文章

最新文章

相关产品

  • 人工智能平台 PAI