9大PyTorch最重要的操作 !!

简介: 9大PyTorch最重要的操作 !!

前言

总结9个最重要的PyTorch操作:

  • 张量创建和基本操作
  • 自动求导(Autograd)
  • 神经网络层(nn.Module)
  • 优化器(Optimizer)
  • 损失函数(Loss Function)
  • 数据加载与预处理
  • 模型保存与加载
  • 学习率调整
  • 模型评估

1. 张量创建和基本操作

PyTorch的张量类似于Numpy数组,但它们提供了GPU加速和自动求导的功能。张量的创建可以通过torch.Tensor,也可以使用torch.zeros、torch.ones等函数。

import torch
 
# 创建张量
a = torch.tensor([1, 2, 3])
b = torch.tensor([4, 5, 6])
 
# 张量加法
c = a + b
print(c)

2. 自动求导(Autograd)

  • torch.autograd 模块提供了自动求导的机制,允许记录操作以及计算梯度。
x = torch.tensor([1.0], requires_grad=True)
y = x**2
y.backward()
print(x.grad)

3. 神经网络层(nn.Module)

  • torch.nn.Module 是构建神经网络的基本组件,它可以包含各种层,例如线性层(nn.Linear)、卷积层(nn.Conv2d)等。
import torch.nn as nn
 
class SimpleNN(nn.Module):
      def __init__(self):
         super(SimpleNN, self).__init__()
         self.fc = nn.Linear(10, 5)
 
      def forward(self, x):
         return self.fc(x)
 
model = SimpleNN()

4. 优化器(Optimizer)

  • 优化器用于调整模型参数以减小损失函数。以下是一个使用随机梯度下降(SGD)优化器的例子。
import torch.optim as optim
 
optimizer = optim.SGD(model.parameters(), lr=0.01)

5. 损失函数(Loss Function)

损失函数用于衡量模型输出与目标之间的差距。例如,交叉熵损失适用于分类问题。

loss_function = nn.CrossEntropyLoss()

6. 数据加载与预处理

  • PyTorch中的 torch.utils.data 模块提供了 Dataset DataLoader 类,用于加载和预处理数据。可以自定义数据集类来适应不同的数据格式和任务。
from torch.utils.data import DataLoader, Dataset
 
class CustomDataset(Dataset):
      # 实现数据集的初始化和__getitem__方法
 
dataloader = DataLoader(dataset, batch_size=64, shuffle=True)

7. 模型保存与加载

  • 可以使用 torch.save 保存模型的状态字典,并使用 torch.load 加载模型。
# 保存模型
torch.save(model.state_dict(), 'model.pth')
 
# 加载模型
loaded_model = SimpleNN()
loaded_model.load_state_dict(torch.load('model.pth'))

8. 学习率调整

  • torch.optim.lr_scheduler 模块提供了学习率调整的工具。例如,可以使用 StepLR来在每个epoch之后降低学习率。
from torch.optim import lr_scheduler
 
scheduler = lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1)

9. 模型评估

  • 在模型训练完成后,需要评估模型性能。在评估时,需要将模型切换到评估模式(model.eval() )并使用 torch.no_grad() 上下文管理器来避免梯度计算。
model.eval()
with torch.no_grad():
      # 运行模型并计算性能指标

参考:DOWHAT小壮

目录
相关文章
|
2月前
|
机器学习/深度学习 存储 PyTorch
Pytorch中in-place操作相关错误解析及detach()方法说明
Pytorch中in-place操作相关错误解析及detach()方法说明
102 0
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch应用实战一:实现卷积操作
PyTorch应用实战一:实现卷积操作
89 0
|
8月前
|
机器学习/深度学习 自然语言处理 PyTorch
【NLP】深入了解PyTorch:功能与基本元素操作
【NLP】深入了解PyTorch:功能与基本元素操作
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch基础之张量模块数据类型、基本操作、与Numpy数组的操作详解(附源码 简单全面)
PyTorch基础之张量模块数据类型、基本操作、与Numpy数组的操作详解(附源码 简单全面)
36 0
|
9月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Pytorch学习笔记(1):基本概念、安装、张量操作、逻辑回归
Pytorch学习笔记(1):基本概念、安装、张量操作、逻辑回归
154 0
Pytorch学习笔记(1):基本概念、安装、张量操作、逻辑回归
|
2月前
|
机器学习/深度学习 PyTorch 调度
50个超强的Pytorch操作 ! ! !
50个超强的Pytorch操作 ! ! !
87 1
|
2月前
|
数据可视化 PyTorch 算法框架/工具
Pytorch中张量的高级选择操作
在某些情况下,我们需要用Pytorch做一些高级的索引/选择,所以在这篇文章中,我们将介绍这类任务的三种最常见的方法:torch.index_select, torch.gather and torch.take
39 0
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch的10个基本张量操作
PyTorch是一个基于python的科学计算包。它的灵活性允许轻松集成新的数据类型和算法,并且框架也是高效和可扩展的,下面我们将介绍一些Pytorch的基本张量操作。
77 1
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch深度学习基础之Reduction归约和自动微分操作讲解及实战(附源码 超详细必看)
PyTorch深度学习基础之Reduction归约和自动微分操作讲解及实战(附源码 超详细必看)
55 0
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch中非标量调用backward()的时候为什么要先进行sum操作
在《动手学深度学习》第二版教程中,当y为非标量的时候,调用backward()函数时,为什么先要求和呢(即y.sum().backward()),估计很多读者有点懵,今天小编给大家说说我的理解。
166 3