PyTorch 入门之旅

简介: PyTorch 入门之旅

什么是PyTorch?


它是一个基于 Python 的科学计算包,主要有两大特色:

  • 替代 NumPy,用以利用 GPU 的强大计算功能
  • 拥有最大灵活性和速度的深度学习研究平台


PyTorch的特点/亮点


 1.对 Python 的原生支持及其库的使用

2.深度结合于 Facebook 的开发,以满足平台中的所有深度学习要求

3.PyTorch 确保提供易于使用的 API,这有助于更换的使用和理解 API

4.动态图计算是 PyTorch 的一个主要亮点,可以确保在代码执行的每个点动态构建图  形,并且可以在运行时进行操作

5.PyTorch 速度快,因此可以确保轻松编码和快速处理

6.对 CUDA 的支持确保代码可以在 GPU 上运行,从而减少运行代码所需的时间并提高系统的整体性能


安装PyTorch


在机器上安装 PyTorch 还是非常简单的

微信图片_20220522195141.png

基于操作系统或包管理器等系统属性,可以从命令提示符或在 IDE(如 PyCharm 等)中直接安装


张量(Tensors)


Tensors 类似于 NumPy 的 n 维数组,此外 Tensors 也可以在 GPU 上进行加速计算

让我们构造一个简单的 Tensors 并检查输出,首先让我们看看如何构建一个 5×3 的未初始化矩阵:

x = torch.empty(5, 3)
print(x)

Output:

tensor([[8.3665e+22, 4.5580e-41, 1.6025e-03],
        [3.0763e-41, 0.0000e+00, 0.0000e+00],
        [0.0000e+00, 0.0000e+00, 3.4438e-41],
        [0.0000e+00, 4.8901e-36, 2.8026e-45],
        [6.6121e+31, 0.0000e+00, 9.1084e-44]])

现在让我们构造一个随机初始化的矩阵:

x = torch.rand(5, 3)
print(x)

Output:

tensor([[0.1607, 0.0298, 0.7555],
        [0.8887, 0.1625, 0.6643],
        [0.7328, 0.5419, 0.6686],
        [0.0793, 0.1133, 0.5956],
        [0.3149, 0.9995, 0.6372]])

直接从数据构造张量:

x = torch.tensor([5.5, 3])
print(x)

Output:

tensor([5.5000, 3.0000])


张量运算


张量运算操作有多种语法,在下面的例子中,我们将看看加法运算:

y = torch.rand(5, 3)
print(x + y)

Output:

tensor([[ 0.2349, -0.0427, -0.5053],
            [ 0.6455,  0.1199,  0.4239],
            [ 0.1279,  0.1105,  1.4637],
            [ 0.4259, -0.0763, -0.9671],
            [ 0.6856,  0.5047,  0.4250]])

调整大小:如果我们想重塑/调整张量的大小,可以使用“torch.view”:

x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8) # the size -1 is inferred from other dimensions
print(x.size(), y.size(), z.size())

Output:

torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])


NumPy


NumPy 是 Python 编程语言的库,增加了对大型、多维数组和矩阵的支持,以及用于对这些数组进行操作的大量高级数学函数集合

Numpy 还有以下特定

  • 提供用于集成 C/C++ 和 FORTRAN 代码的工具
  • 具有线性代数、傅立叶变换和随机数功能的运算能力

除了明显的科学用途外,NumPy 还可以用作通用数据的高效多维容器,也可以定义任意的数据类型

这使得 NumPy 可以无缝快速地与各种数据库集成!


连接Array和Tensors的桥梁


将 Torch Tensor 转换为 NumPy 数组,反之亦然是轻而易举

微信图片_20220522195412.png

Torch Tensor 和 NumPy 数组将共享它们的底层内存位置,改变一个将同时改变另一个

将 Torch 张量转换为 NumPy 数组:

a = torch.ones(5)
print(a)
b = a.numpy()
print(b)

Output:

tensor([1., 1., 1., 1., 1.])
[1. 1. 1. 1. 1.]

下面让我们执行求和运算并检查值的变化:

a.add_(1)
print(a)
print(b)

Output:

tensor([2., 2., 2., 2., 2.]) [2. 2. 2. 2. 2.]

将 NumPy 数组转换为 Torch 张量:

import numpy as no
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)

Output:

[2. 2. 2. 2. 2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

可以看到,Numpy 与 Torch 之间的互转还是非常方便的


实战-训练图像分类器


数据集选择

通常,当我们处理图像、文本、音频或视频数据时,可以使用标准的 Python 包将数据加载到 Numpy 数组中,然后就可以把这个数组转换成一个 torch.*Tensor

  • 对于图像,可以 Pillow 和 OpenCV
  • 对于音频,使用 Scipy 和 Librosa
  • 对于文本,原始 Python、基于 Cython 的加载或 NLTK 和 SpaCy 都可以

专门针对视觉,有一个名为 torchvision 的包,它实现了 Imagenet、CIFAR10、MNIST 等常见数据集的数据加载器和用于图像的数据转换器,这样我们就可以很方便的使用已有数据集进行学习

在这里,我们将使用 CIFAR10 数据集

它有类别:“飞机”、“汽车”、“鸟”、“猫”、“鹿”、“狗”、“青蛙”、“马”、“船”、“卡车”。CIFAR-10 中的图像大小为3x32x32,即32×32像素大小的3通道彩色图像,如下图:

微信图片_20220522195536.png

训练 CIFAR10 分类器

微信图片_20220522195540.png

首先我们加载和归一化 CIFAR10 使用 torchvision 加载

import torch
import torchvision
import torchvision.transforms as transforms

torchvision 数据集的输出是范围 [0, 1] 的 PILImage 图像,我们将它们转换为归一化范围 [-1, 1] 的张量

transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=2)
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=2)
classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

Output:

Downloading https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz to ./data/cifar-10-python.tar.gz Files already downloaded and verified

接下来,我们从数据集中打印一些训练图像

import matplotlib.pyplot as plt
import numpy as np
# functions to show an image
def imshow(img):
img = img / 2 + 0.5 # unnormalize
npimg = img.numpy()
plt.imshow(np.transpose(npimg, (1, 2, 0)))
# get some random training images
dataiter = iter(trainloader)
images, labels = dataiter.next()
# show images
imshow(torchvision.utils.make_grid(images))
# print labels
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))


微信图片_20220522195544.png


Output:

dog  bird horse horse

下面我们定义卷积神经网络 考虑使用 3 通道图像(红色、绿色和蓝色)的情况,我们定义 CNN 架构

import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()

接下来定义损失函数和优化器

我们使用 Cross-Entropy loss 和 SGD

事实上,Cross-Entropy Loss 是一个介于 0-1 之间的概率值,完美模型的交叉熵损失为 0,但也可能发生预期值为 0.2 但最终却得到 2 的情况,这将导致非常高的损失并且根本没有任何作用

import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

下面就可以训练神经网络了

我们只需要遍历我们的数据迭代器,并将输入提供给网络并进行优化

for epoch in range(2): # loop over the dataset multiple times
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# get the inputs
inputs, labels = data
# zero the parameter gradients
optimizer.zero_grad()
# forward + backward + optimize
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# print statistics
running_loss += loss.item()
if i % 2000 == 1999: # print every 2000 mini-batches
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0
print('Finished Training')

Output:

[1,  2000] loss: 2.236
[1,  4000] loss: 1.880
[1,  6000] loss: 1.676
[1,  8000] loss: 1.586
[1, 10000] loss: 1.515
[1, 12000] loss: 1.464
[2,  2000] loss: 1.410
[2,  4000] loss: 1.360
[2,  6000] loss: 1.360
[2,  8000] loss: 1.325
[2, 10000] loss: 1.312
[2, 12000] loss: 1.302
Finished Training

最后,在测试集上测试神经网络

我们已经在训练数据集上训练了 2 遍网络,但是还需要检查网络是否学到了什么东西

我们将通过预测神经网络输出的类标签来检查这一点,并根据真实情况进行检查,如果预测正确,我们将样本添加到正确预测列表中

第一步,让我们展示一张来自测试集的图片

dataiter = iter(testloader)
images, labels = dataiter.next()
# print images
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))


微信图片_20220522195549.png


Output:

GroundTruth:    cat  ship  ship plane

第二步,使用神经网络进行预测

outputs = net(images)
predicted = torch.max(outputs, 1)
print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
for j in range(4)))

outputs 输出是 10 个类别的权重,一个类别的权重越高,神经网络就越认为该图像属于该类别 Output:

Predicted:    cat   car   car plane

效果似乎还不错

再接下来让我们看看神经网络在整个数据集上的表现

correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))

Output:

Accuracy of the network on the 10000 test images: 54 %

准确率还可以,比随机偶然的10%(从 10 个类中随机选择一个类)还是高出不少的

最后我们再看下不同类别的准确率

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs, 1)
c = (predicted == labels).squeeze()
for i in range(4):
label = labels[i]
class_correct[label] += c[i].item()
class_total[label] += 1
for i in range(10):
print('Accuracy of %5s : %2d %%' % (
classes[i], 100 * class_correct[i] / class_total[i]))

Output:

Accuracy of plane : 61 %
Accuracy of   car : 85 %
Accuracy of  bird : 46 %
Accuracy of   cat : 23 %
Accuracy of  deer : 40 %
Accuracy of   dog : 36 %
Accuracy of  frog : 80 %
Accuracy of horse : 59 %
Accuracy of  ship : 65 %
Accuracy of truck : 46 %

好了,今天的分享就到这里了

相关文章
|
7月前
|
机器学习/深度学习 算法 PyTorch
用PyTorch轻松实现二分类:逻辑回归入门
用PyTorch轻松实现二分类:逻辑回归入门
用PyTorch轻松实现二分类:逻辑回归入门
|
机器学习/深度学习 PyTorch 算法框架/工具
Pytorch 最全入门介绍,Pytorch入门看这一篇就够了1
Pytorch 最全入门介绍,Pytorch入门看这一篇就够了
152 0
|
4月前
|
机器学习/深度学习 并行计算 PyTorch
PyTorch与DistributedDataParallel:分布式训练入门指南
【8月更文第27天】随着深度学习模型变得越来越复杂,单一GPU已经无法满足训练大规模模型的需求。分布式训练成为了加速模型训练的关键技术之一。PyTorch 提供了多种工具来支持分布式训练,其中 DistributedDataParallel (DDP) 是一个非常受欢迎且易用的选择。本文将详细介绍如何使用 PyTorch 的 DDP 模块来进行分布式训练,并通过一个简单的示例来演示其使用方法。
400 2
|
4月前
|
机器学习/深度学习 PyTorch 测试技术
深度学习入门:使用 PyTorch 构建和训练你的第一个神经网络
【8月更文第29天】深度学习是机器学习的一个分支,它利用多层非线性处理单元(即神经网络)来解决复杂的模式识别问题。PyTorch 是一个强大的深度学习框架,它提供了灵活的 API 和动态计算图,非常适合初学者和研究者使用。
55 0
|
5月前
|
机器学习/深度学习 并行计算 数据挖掘
🎓PyTorch深度学习入门课:编程小白也能玩转的高级数据分析术
【7月更文挑战第29天】踏入深度学习世界,新手也能用PyTorch解锁高级数据分析。
47 2
|
4月前
|
存储 PyTorch API
Pytorch入门—Tensors张量的学习
Pytorch入门—Tensors张量的学习
29 0
|
6月前
|
机器学习/深度学习 数据可视化 PyTorch
PyTorch深度学习框架入门与应用
PyTorch 提供了丰富的工具和 GPU 加速功能,便于构建和训练神经网络。基础包括:1) 张量,类似 NumPy,支持 GPU 计算;2) 自动微分,方便计算梯度;3) 内置神经网络模块 `nn`。PyTorch 还支持数据并行、自定义层、模型保存加载、模型可视化和剪枝量化等进阶用法。通过不断学习,你将能掌握更多高级功能。【6月更文挑战第6天】
125 8
|
7月前
|
机器学习/深度学习 JSON PyTorch
图神经网络入门示例:使用PyTorch Geometric 进行节点分类
本文介绍了如何使用PyTorch处理同构图数据进行节点分类。首先,数据集来自Facebook Large Page-Page Network,包含22,470个页面,分为四类,具有不同大小的特征向量。为训练神经网络,需创建PyTorch Data对象,涉及读取CSV和JSON文件,处理不一致的特征向量大小并进行归一化。接着,加载边数据以构建图。通过`Data`对象创建同构图,之后数据被分为70%训练集和30%测试集。训练了两种模型:MLP和GCN。GCN在测试集上实现了80%的准确率,优于MLP的46%,展示了利用图信息的优势。
98 1
|
6月前
|
并行计算 PyTorch 程序员
老程序员分享:Pytorch入门之Siamese网络
老程序员分享:Pytorch入门之Siamese网络
104 0
|
7月前
|
机器学习/深度学习 人工智能 并行计算
PyTorch入门指南:从安装到基础操作
【4月更文挑战第17天】PyTorch入门指南介绍了安装、Tensor操作、自动微分、神经网络构建及训练。安装PyTorch可通过官网选择相应环境的预构建包或使用conda命令。Tensor是基本计算单元,支持多种操作。自动微分简化了梯度计算。使用`torch.nn`定义神经网络,如示例中的全连接网络。训练网络涉及前向传播、损失计算、反向传播和权重更新,常用优化器如SGD。模型评估与测试包括在验证集或测试集上计算性能指标,如准确率。本文为初学者提供了PyTorch基础操作的快速入门。