深度学习实践篇 第二章:transforms

简介: 简要介绍pytorch中常用的transform方法。

教程参考:
https://pytorch.org/tutorials/
https://github.com/TingsongYu/PyTorch_Tutorial
https://github.com/yunjey/pytorch-tutorial
详细的transform的使用样例可以参考:ILLUSTRATION OF TRANSFORMS


@[TOC]

为什么要使用transforms

你得到的原始数据,可能并不是你期望的用于模型训练的数据的形式,比如数据中图像的大小不同、数据的格式不对。这时就需要你对数据进行统一的处理,torchvision.transforms就提供了一些帮助我们进行数据处理的简易手段。

在pytorch官方教程最开始,给了这样一个示例。
示例中使用自带的datasets:FashionMNIST,为了便于训练,对于原始数据和label分别使用了transform的方法。
对于数据本身,使用的方法是 ToTensor(),
对于标签,使用的方法是one-hot。
在后面的部分我们会详细介绍一下不同的transform方法。

import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda

ds = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor(),
    target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)

torchvision.transforms中提供了多个方法,并且这些方法可以使用Compose进行连接,并按顺序执行。其中的大部分transforms方法都可以接受PIL图像和tensor图像作为输入,当然也有一部分在输入上有限制。

transforms方法举例

我们使用opencv读入一张cifar10中的图片作为例子,并将其通道从BGR转为RGB通道。使用opencv读入的图片,为numpy.ndarray格式。下图是我们的例子,一个类别为airplane的图像。
image.png

ToTensor()

ToTensor()方法可以把一个PIL图像或者numpy.ndarray数据转成FloatTensor的形式,并且将图像规范化到0和1之间。
更细致地来说,它会把一共PIL图像,或者范围在[0,255]的大小为(HxWxC)的numpy.ndarray转成一个大小为(CxHxW)的范围在[0.0,1.0]的floattensor。ndarray数据的dtype必须是np.uint8。
image.png

使用ToTensor()方法对我们的img进行处理,可以看到它原本为uint8的ndarray,变成了float32的tensor,它的形状从(32, 32, 3)转为(3, 32, 32),并且它的像素值的大小从51 到 255被转变为0.2到1.0。

我们也可以将图像读取为PIL Image的形式,并使用同样的方法处理。得到的结果是完全相同的。
image.png

Normalize()方法可以把一个tensor数据进行归一化/标准化处理。在使用时,需要你提供数据的均值和方差,Normalize()会对输入数据的每一个通道进行归一化处理。使用的方法是:
$$ output[channel] = \frac{input[channel] - mean[channel]}{std[channel]} $$
要注意它的输入是tensor格式,所以一般把它放到ToTensor()后面使用。
使用之后数据的大小类型都没有发生变化,但是值的范围发生了变化。
image.png

Geometry

主要对图像的大小形状等进行调整,没有改变图像的颜色信息。

transforms.Resize()

torchvision.transforms.Resize(size, interpolation=InterpolationMode.BILINEAR, max_size=None, antialias='warn')

Resize()的输入可以是PIL图像也可以是tensor。给定一张图片,Resize()会对图像的长款进行缩放,把它变成我们期望的大小。

输入的size可以是一个整数也可以是一个序列[h,w],如果是单个整数的话,则被认为是期望的短边的大小,长边会按比例缩放。
输入的interpolation是一个插值方法。
输入max_size定义了一个目标图像的长边大小的上限,如果超过上限,则会重新resize。

transforms.CenterCrop( size )

CenterCrop()的输入可以是PIL图像也可以是Tensor。给定一张图片,CenterCrop()会从图中心开始对图像进行裁剪,只保留我们期望的大小。假如输入的图像大小比我们期望的size小,则会在图像周围进行补0操作。
下图的第一张图为32x32大小的原图,第二张图为10x10的crop结果,第三张图为40x40的crop结果。
image.png

transforms.RandomCrop(size)

torchvision.transforms.RandomCrop(size, padding=None, pad_if_needed=False, fill=0, padding_mode='constant')

RandomCrop()的输入可以是PIL图像也可以是Tensor。给定一张图像,RandomCrop()会在随机位置对图像进行裁剪

输入的size可以是一个整数也可以是一个序列[h,w],如果是单个整数的话,认为crop的图像的大小是[size,size]。
输入的padding可以是一个整数也可以是一个序列,如果是一个整数,会使用这个整数对所有的边进行padding。如果是一个长度为2的序列,则会分别用来扩充left/right和top/bottom。如果是一个长度为4的整数,则分别对应了每一个边。
输入的padding_mode有四个选项,分别是constant(常数填充), edge(边缘填充),reflect(镜像填充),symmetric (对称填充)。
镜像填充在填充时以边界为镜面形成镜像。对称填充则是使用对称值。具体来说,对[1,2]在左右进行一个像素大小的填充,使用镜像填充得到的结果为[2,1,2,1],使用对称填充得到的结果为[1,1,2,2]。
下图的第一张图为32x32大小的原图,第二张和第三张为10x10的crop结果,因为randomcrop,所以两个图的结果不一样。
image.png

transforms.RandomResizedCrop()

torchvision.transforms.RandomResizedCrop(size, scale=(0.08, 1.0), ratio=(0.75, 1.3333333333333333), interpolation=InterpolationMode.BILINEAR, antialias: Optional[Union[str, bool]] = 'warn')

RandomResizedCrop()的输入可以是PIL图像也可以是Tensor。给定一张图像,RandomResizedCrop()会在随机位置对图像进行随机大小的裁剪,并把它resize成期望的大小。

输入的size可以是一个整数也可以是一个序列[h,w],如果是单个整数的话,认为crop的图像的大小是[size,size]。
输入的scale要求是一个tuple,定义了crop的区域大小的下限和上限,它使用的是一个基于原图大小的比例值。
输入的ratio要求是一个tuple,定义了crop区域的长宽比的下限和上限。
scale和ratio的区别是,scale代表了取长宽的基准,ratio是在这个基准上参考的长宽比。
输入的interpolation要求是一个插值方法,在RandomResizedCrop()中没有padding,因为随即裁剪得到的图像会使用插值方法resize到期望的大小。
下图的第一张图为32x32大小的原图,第二张和第三张为40x40的crop结。
image.png

transforms.FiveCrop(size)

FiveCrop()的输入可以是PIL图像也可以是Tensor,给定一张图像,获得图像四个角和中心的crop结果。
要注意,FiveCrop()返回的结果是五张图,而不是一张图。
对于一个大小为(b, c, h, w)的tensor的输入,它返回的结果为(b, ncrop, c, size_h, size_w)。
image.png

transforms.TenCrop(size, vertical_flip = False)

TenCrop()和FiveCrop()类型,只不过在其基础上增加了翻转。默认是使用水平翻转,如果vertical_clip设为True,就会使用垂直翻转。
image.png

RandomHorizontalFlip and RandomVerticalFlip

torchvision.transforms.RandomHorizontalFlip(p=0.5)

torchvision.transforms.RandomVerticalFlip(p=0.5)

两个函数的输入可以是PIL图像也可以是tensor。
输入P代表反转图像的概率,默认为0.5,即有50%的概率该图像会被翻转。

RandomRotation()

torchvision.transforms.RandomRotation(degrees, interpolation=InterpolationMode.NEAREST, expand=False, center=None, fill=0)

RandomRotation()的输入可以是PIL图像也可以是tensor。

输入degrees可以是一个整数或者一个序列。如果是整数则代表旋转的范围是 - degrees,+ degrees,如果是一组数则分别代表了最小值和最大值。
输入interpolation是一个插值方法。
输入expand代表是否要对图片进行扩展,经过旋转后图片的形状发生变化,如果expand = False,则会默认保持输出和输入图像大小一致。
输入center代表旋转中心,默认是图片中心。
输入fill代表填充图片边界外 区域所用的数值,默认是0。

第一行的是expand = False时随机旋转的结果,输出图像和输入图像保持一样的大小。第二行是expand = True时的结果,输出图像的大小发生了变化。
image.png

Color

主要对图像的颜色信息进行调整,没有改变图像的形状大小。

ColorJitter()

torchvision.transforms.ColorJitter(brightness: Union[float, Tuple[float, float]] = 0, contrast: Union[float, Tuple[float, float]] = 0, saturation: Union[float, Tuple[float, float]] = 0, hue: Union[float, Tuple[float, float]] = 0)

ColorJitter()的输入可以是PIL图像也可以是tensor。假如输入的是tensor,期望tensor的数据格式为[..., 1 or 3, H, W]。ColorJitter()可以随即调整图像的亮度,对比度,饱和度,色调等。
可以看到使用ColorJitter()后只有图像的颜色发生了变化,几何信息没有受到影响。
image.png

RandomGrayscale(p = 0.1)

RandomGrayscale()的输入可以是PIL图像是也可以是tensor,但是要求tensor的通道数是3。RandomGrayscale()有p的概率将一个图像转换为灰度图。

GaussianBlur(kernel_size, sigma=(0.1, 2.0))

GaussianBlur()的输入可以是PIL图像也可以是tensor。给定一张图像,它可以随机使用高斯模糊来把图像变得模糊。

输入kernel_size是一个整数或者序列,表示高斯核的大小。
输入sigma是代表标准差的上下界。

下图为kernel_size = 5时的结果。
image.png

RandomInvert(p=0.5)

RandomInvert()的输入可以是PIL图像也可以是tensor。给定一张图像,RandomInvert()有p的概率翻转图像的颜色。
image.png

Composition

主要是不同的transforms的组合方式。

Compose(transforms)

Compose()将多个transforms方法组合在一起,在使用时会按顺序进行。
如以下例子,首先将图片进行CenterCrop,然后转变为tensor格式,最后又将图像的dtype变为float。

>>> transforms.Compose([
>>>     transforms.CenterCrop(10),
>>>     transforms.PILToTensor(),
>>>     transforms.ConvertImageDtype(torch.float),
>>> ])

Compose()方法可以用torch.nn.Sequential()替代。

RandomApply(transforms, p)

RandomApply()将多个transforms方法组合在一起,在使用时按照概率p决定是否执行,要么全都执行,全么全都不执行。

RandomChoice(transforms,p)

RandomChoice() 参考random.choices方法,从多个transforms方法中选择一个使用。

RandomOrder(transforms)

RandomOrder()将多个transforms方法而在一起,在使用时会按随机顺序进行。

Miscellaneous

RandomErasing()

torchvision.transforms.RandomErasing(p=0.5, scale=(0.02, 0.33), ratio=(0.3, 3.3), value=0, inplace=False)

RandomErasing()方法的输入必须是tensor,这个函数不支持PIL图像。给定一个图像,RandomErasing()方法会随机选择图像中的一块并擦除他的元素值。

输入p代表执行擦除操作的概率。
输入scale代表擦除区域占输入图像的范围。
输入ratio代表擦除区域的长宽比。
输入value代表擦除后用来替换的值。
输入inplace代表是否在原图像上进行操作。

因为输入必须是tensor,所以只能放在ToTensor()后面使用。

>>> transform = transforms.Compose([
>>>   transforms.RandomHorizontalFlip(),
>>>   transforms.PILToTensor(),
>>>   transforms.ConvertImageDtype(torch.float),
>>>   transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)),
>>>   transforms.RandomErasing(),
>>> ])

Lambda(lambda)

Lambda()就是在最开始的例子中,target_transform使用的方法。

该例子定义了一个one-hot编码的函数,对于输入的整数类型的图像类别,可以将其转为特殊的one-hot编码格式

target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))

Auto-Augmentation

pytorch 提供了一些policy供使用者选择,比如 IMAGENET, CIFAR10 and SVHN. 依靠这些policy,使用者可以直接套用前人的augmentation方法,而不需要自己编写代码。


之后有时间的话再介绍一下别的augmentation常用的包。

相关文章
|
3天前
|
机器学习/深度学习 算法
揭秘深度学习中的对抗性网络:理论与实践
【5月更文挑战第18天】 在深度学习领域的众多突破中,对抗性网络(GANs)以其独特的机制和强大的生成能力受到广泛关注。不同于传统的监督学习方法,GANs通过同时训练生成器与判别器两个模型,实现了无监督学习下的高效数据生成。本文将深入探讨对抗性网络的核心原理,解析其数学模型,并通过案例分析展示GANs在图像合成、风格迁移及增强学习等领域的应用。此外,我们还将讨论当前GANs面临的挑战以及未来的发展方向,为读者提供一个全面而深入的视角以理解这一颠覆性技术。
|
4天前
|
机器学习/深度学习 人工智能 算法
【AI】从零构建深度学习框架实践
【5月更文挑战第16天】 本文介绍了从零构建一个轻量级的深度学习框架tinynn,旨在帮助读者理解深度学习的基本组件和框架设计。构建过程包括设计框架架构、实现基本功能、模型定义、反向传播算法、训练和推理过程以及性能优化。文章详细阐述了网络层、张量、损失函数、优化器等组件的抽象和实现,并给出了一个基于MNIST数据集的分类示例,与TensorFlow进行了简单对比。tinynn的源代码可在GitHub上找到,目前支持多种层、损失函数和优化器,适用于学习和实验新算法。
57 2
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
深度理解深度学习:从理论到实践的探索
【5月更文挑战第3天】 在人工智能的浪潮中,深度学习以其卓越的性能和广泛的应用成为了研究的热点。本文将深入探讨深度学习的核心理论,解析其背后的数学原理,并通过实际案例分析如何将这些理论应用于解决现实世界的问题。我们将从神经网络的基础结构出发,逐步过渡到复杂的模型架构,同时讨论优化算法和正则化技巧。通过本文,读者将对深度学习有一个全面而深刻的认识,并能够在实践中更加得心应手地应用这些技术。
|
6天前
|
机器学习/深度学习 人工智能 缓存
安卓应用性能优化实践探索深度学习在图像识别中的应用进展
【4月更文挑战第30天】随着智能手机的普及,移动应用已成为用户日常生活的重要组成部分。对于安卓开发者而言,确保应用流畅、高效地运行在多样化的硬件上是一大挑战。本文将探讨针对安卓平台进行应用性能优化的策略和技巧,包括内存管理、多线程处理、UI渲染效率提升以及电池使用优化,旨在帮助开发者构建更加健壮、响应迅速的安卓应用。 【4月更文挑战第30天】 随着人工智能技术的迅猛发展,深度学习已成为推动计算机视觉领域革新的核心动力。本篇文章将深入分析深度学习技术在图像识别任务中的最新应用进展,并探讨其面临的挑战与未来发展趋势。通过梳理卷积神经网络(CNN)的优化策略、转移学习的实践应用以及增强学习与生成对
|
6天前
|
机器学习/深度学习 搜索推荐 算法
推荐系统算法的研究与实践:协同过滤、基于内容的推荐和深度学习推荐模型
推荐系统算法的研究与实践:协同过滤、基于内容的推荐和深度学习推荐模型
277 1
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
从零开始学习深度学习:入门指南与实践建议
本文将引导读者进入深度学习领域的大门,从基础概念到实际应用,为初学者提供全面的学习指南和实践建议。通过系统化的学习路径规划和案例实践,帮助读者快速掌握深度学习的核心知识和技能,迈出在人工智能领域的第一步。
|
6天前
|
机器学习/深度学习 Python
有没有一些开源的深度学习项目可以帮助我实践所学的知识?
【2月更文挑战第14天】【2月更文挑战第40篇】有没有一些开源的深度学习项目可以帮助我实践所学的知识?
|
6天前
|
机器学习/深度学习 人工智能 算法
【深度学习】因果推断与机器学习的高级实践 | 数学建模
【深度学习】因果推断与机器学习的高级实践 | 数学建模
|
9月前
|
机器学习/深度学习 PyTorch 算法框架/工具
深度学习实践篇 第五章:模型保存与加载
简要介绍pytorch中模型的保存与加载。
110 0
|
6天前
|
机器学习/深度学习 人工智能 算法
基于AidLux的工业视觉少样本缺陷检测实战应用---深度学习分割模型UNET的实践部署
  工业视觉在生产和制造中扮演着关键角色,而缺陷检测则是确保产品质量和生产效率的重要环节。工业视觉的前景与发展在于其在生产制造领域的关键作用,尤其是在少样本缺陷检测方面,借助AidLux技术和深度学习分割模型UNET的实践应用,深度学习分割模型UNET的实践部署变得至关重要。
72 1