前言
总结9个最重要的PyTorch操作:
- 张量创建和基本操作
- 自动求导(Autograd)
- 神经网络层(nn.Module)
- 优化器(Optimizer)
- 损失函数(Loss Function)
- 数据加载与预处理
- 模型保存与加载
- 学习率调整
- 模型评估
1. 张量创建和基本操作
PyTorch的张量类似于Numpy数组,但它们提供了GPU加速和自动求导的功能。张量的创建可以通过torch.Tensor,也可以使用torch.zeros、torch.ones等函数。
import torch # 创建张量 a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # 张量加法 c = a + b print(c)
2. 自动求导(Autograd)
- torch.autograd 模块提供了自动求导的机制,允许记录操作以及计算梯度。
x = torch.tensor([1.0], requires_grad=True) y = x**2 y.backward() print(x.grad)
3. 神经网络层(nn.Module)
- torch.nn.Module 是构建神经网络的基本组件,它可以包含各种层,例如线性层(nn.Linear)、卷积层(nn.Conv2d)等。
import torch.nn as nn class SimpleNN(nn.Module): def __init__(self): super(SimpleNN, self).__init__() self.fc = nn.Linear(10, 5) def forward(self, x): return self.fc(x) model = SimpleNN()
4. 优化器(Optimizer)
- 优化器用于调整模型参数以减小损失函数。以下是一个使用随机梯度下降(SGD)优化器的例子。
import torch.optim as optim optimizer = optim.SGD(model.parameters(), lr=0.01)
5. 损失函数(Loss Function)
损失函数用于衡量模型输出与目标之间的差距。例如,交叉熵损失适用于分类问题。
loss_function = nn.CrossEntropyLoss()
6. 数据加载与预处理
- PyTorch中的 torch.utils.data 模块提供了 Dataset 和 DataLoader 类,用于加载和预处理数据。可以自定义数据集类来适应不同的数据格式和任务。
from torch.utils.data import DataLoader, Dataset class CustomDataset(Dataset): # 实现数据集的初始化和__getitem__方法 dataloader = DataLoader(dataset, batch_size=64, shuffle=True)
7. 模型保存与加载
- 可以使用 torch.save 保存模型的状态字典,并使用 torch.load 加载模型。
# 保存模型 torch.save(model.state_dict(), 'model.pth') # 加载模型 loaded_model = SimpleNN() loaded_model.load_state_dict(torch.load('model.pth'))
8. 学习率调整
- torch.optim.lr_scheduler 模块提供了学习率调整的工具。例如,可以使用 StepLR来在每个epoch之后降低学习率。
from torch.optim import lr_scheduler scheduler = lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1)
9. 模型评估
- 在模型训练完成后,需要评估模型性能。在评估时,需要将模型切换到评估模式(model.eval() )并使用 torch.no_grad() 上下文管理器来避免梯度计算。
model.eval() with torch.no_grad(): # 运行模型并计算性能指标
参考:DOWHAT小壮