一文读懂—Pytorch混合精度训练

简介: 一文读懂—Pytiorch混合精度训练

> 复现代码时遇到了自动混合精度。查阅资料得知,Pytorch从1.60开始支持自动混合精度训练。其中自动、混合精度是两个关键词,那么代表什么意思呢?一起来看看吧!

✨1 混合精度训练简介

目前,Pytorch一共支持10种数据类型

  • torch.FloatTensor # 另一种表述:FP32**
  • torch.DoubleTensor # 64-bit floating point
  • torch.HalfTensor # 另一种表述:FP16
  • torch.ByteTensor
  • torch.CharTensor
  • torch.ShortTensor
  • torch.IntTensor
  • torch.LongTensor

默认使用的是32位浮点型精度的Tensor,即torch.FloatTensor 。因此,默认情况下我们训练的是一个FP32的模型。但不是所有数据都需要FP32那么大的内存。

此时,采用自动混合精度(Automatic Mixed Precision, AMP)训练,一部分算子数值精度为FP16,其余算子的数值精度是FP32,而哪些算子用FP16,哪些用FP32,由amp自动安排。这样在不改变模型、不降低模型训练精度的前提下,可以缩短训练时间,降低存储需求,因而能支持更多的 batch size、更大模型和尺寸更大的输入进行训练。

✨2 自动混合精度训练的使用

结合一段示例代码来看:

# amp依赖Tensor core架构,所以模型必须在cuda设备下使用
model = Model()
model.to("cuda")  # 必须!!!
optimizer = optim.SGD(model.parameters(), ...)
# (新增)创建GradScaler对象
scaler = GradScaler(enabled=True)  # 虽然默认为True,体验一下过程
for epoch in epochs:
    for img, target in data:
        optimizer.zero_grad()
        # (新增)启动autocast上下文管理器
        with autocast(enabled=True):
            # (不变)上下文管理器下,model前向传播,以及loss计算自动切换数值精度
            output = model(img)
            loss = loss_fn(output, target)
        # (修改)反向传播
        scaler.scale(loss).backward()
        # (修改)梯度计算
        scaler.step(optimizer)
        # (新增)scaler更新
        scaler.update()

使用自动化精度时,只有在模型以及损失计算,反向传播,梯度更新时作出一定的改变,具体有:

scaler = GradScaler():创建对象GradScaler,并赋予变量scaler

with autocast()::启动autocast上下文管理器,内含需要做精度放缩的计算(必须包含模型计算以及损失计算)

  1. scaler.scale(loss).backward():利用scaler做反向传播
  2. scaler.step(optimizer):梯度更新
  3. scaler.update():scaler更新

🎃 2.2 GradScaler

构造:

torch.cuda.amp.GradScaler(
  init_scale=65536.0,
  growth_factor=2.0,
  backoff_factor=0.5,
  growth_interval=2000,
  enabled=True,
)

这里形式很固定,只有一个参数enabled根据自己的需求进行改变

参数:

  1. enabled:是否做scale。如果为False,则返回原数据。如果为True,则进行一次精度转换。

原谅我,涉及到了原理,水平有限,真的看不懂,欢迎大家交流

🎉 2.2 autocast

autocast(
  enable=True  # 同上
)

上面的示例中,autocast是在训练脚本中使用的,除此之外还有两种方式:

  1. 作为装饰器,在forward函数中使用

==============================================================

class Model(nn.Module):
  def __init__(self):
    pass
  @torch.cuda.amp.autocast()  # autocast导入路径
  def forward():
    pass

==============================================================


在forward中使用上下文管理器

==============================================================

class Model(nn.Module):
  def __init__(self):
    pass
  def forward():
    with torch.cuda.amp.autocast():  # 上下文管理器
      pass


相关文章
|
6月前
|
存储 人工智能 PyTorch
基于PyTorch/XLA的高效分布式训练框架
基于PyTorch/XLA的高效分布式训练框架
316 2
|
6月前
|
机器学习/深度学习 存储 PyTorch
【AMP实操】解放你的GPU运行内存!在pytorch中使用自动混合精度训练
【AMP实操】解放你的GPU运行内存!在pytorch中使用自动混合精度训练
250 0
|
6月前
|
机器学习/深度学习 数据采集 PyTorch
使用PyTorch解决多分类问题:构建、训练和评估深度学习模型
使用PyTorch解决多分类问题:构建、训练和评估深度学习模型
使用PyTorch解决多分类问题:构建、训练和评估深度学习模型
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【PyTorch实战演练】AlexNet网络模型构建并使用Cifar10数据集进行批量训练(附代码)
【PyTorch实战演练】AlexNet网络模型构建并使用Cifar10数据集进行批量训练(附代码)
488 0
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【PyTorch实战演练】使用Cifar10数据集训练LeNet5网络并实现图像分类(附代码)
【PyTorch实战演练】使用Cifar10数据集训练LeNet5网络并实现图像分类(附代码)
437 0
|
2月前
|
并行计算 PyTorch 算法框架/工具
基于CUDA12.1+CUDNN8.9+PYTORCH2.3.1,实现自定义数据集训练
文章介绍了如何在CUDA 12.1、CUDNN 8.9和PyTorch 2.3.1环境下实现自定义数据集的训练,包括环境配置、预览结果和核心步骤,以及遇到问题的解决方法和参考链接。
137 4
基于CUDA12.1+CUDNN8.9+PYTORCH2.3.1,实现自定义数据集训练
|
3月前
|
机器学习/深度学习 并行计算 PyTorch
GPU 加速与 PyTorch:最大化硬件性能提升训练速度
【8月更文第29天】GPU(图形处理单元)因其并行计算能力而成为深度学习领域的重要组成部分。本文将介绍如何利用PyTorch来高效地利用GPU进行深度学习模型的训练,从而最大化训练速度。我们将讨论如何配置环境、选择合适的硬件、编写高效的代码以及利用高级特性来提高性能。
702 1
|
3月前
|
机器学习/深度学习 并行计算 PyTorch
PyTorch与DistributedDataParallel:分布式训练入门指南
【8月更文第27天】随着深度学习模型变得越来越复杂,单一GPU已经无法满足训练大规模模型的需求。分布式训练成为了加速模型训练的关键技术之一。PyTorch 提供了多种工具来支持分布式训练,其中 DistributedDataParallel (DDP) 是一个非常受欢迎且易用的选择。本文将详细介绍如何使用 PyTorch 的 DDP 模块来进行分布式训练,并通过一个简单的示例来演示其使用方法。
364 2
|
3月前
|
机器学习/深度学习 PyTorch 测试技术
深度学习入门:使用 PyTorch 构建和训练你的第一个神经网络
【8月更文第29天】深度学习是机器学习的一个分支,它利用多层非线性处理单元(即神经网络)来解决复杂的模式识别问题。PyTorch 是一个强大的深度学习框架,它提供了灵活的 API 和动态计算图,非常适合初学者和研究者使用。
54 0
|
5月前
|
机器学习/深度学习 并行计算 PyTorch
使用PyTorch Profiler进行模型性能分析,改善并加速PyTorch训练
加速机器学习模型训练是工程师的关键需求。PyTorch Profiler提供了一种分析工具,用于测量CPU和CUDA时间,以及内存使用情况。通过在训练代码中嵌入分析器并使用tensorboard查看结果,工程师可以识别性能瓶颈。Profiler的`record_function`功能允许为特定操作命名,便于跟踪。优化策略包括使用FlashAttention或FSDP减少内存使用,以及通过torch.compile提升速度。监控CUDA内核执行和内存分配,尤其是避免频繁的cudaMalloc,能有效提升GPU效率。内存历史记录分析有助于检测内存泄漏和优化批处理大小。
453 1
下一篇
无影云桌面