Nvidia TensorRT系列01-基本介绍

简介: NVIDIA TensorRT 是一个高性能的机器学习推理SDK,支持 TensorFlow、PyTorch 等框架。本文介绍了 TensorRT 的基本概念、安装指南、快速开始、案例和互补软件,如 NVIDIA Triton 推理服务器、DALI 和 TF-TRT。同时,文章还涵盖了 ONNX 支持、版本控制和弃用策略等内容。

Nvidia TensorRT系列01-基本介绍

鉴于Nvidia的在深度学习上已经非常完善,即使有其他的芯片或者是框架,基本思路也都是要借鉴Nvidia的开发的,好比虽然特斯拉网上很多骂声,但是大多数国内的车企还是在发布会上狠狠对比,又好比手机发布会狠狠对比Apple,好的东西总是值得大家去借鉴的,对于小公司而言,使用其他公司的生态框架硬件成本看起来很低,但是由于生态和社区一般,实际上运维起来的成本又很高。所以,希望通过更新这个系列来帮助自己对Nvidia的TensorRT进行一些基础的学习。其中大部分文字借鉴了英文原始的开发文档,也是主要方便对于英文阅读文档有困难的小伙伴能有一些小小的帮助。

NVIDIA TensorRT开发者指南展示了如何使用C++和Python API来实现最常见的深度学习层。它向您展示了如何获取使用深度学习框架构建的现有模型,并使用提供的解析器构建TensorRT引擎。开发者指南还为常见用户任务提供了分步说明,例如创建TensorRT网络定义、调用TensorRT构建器、序列化和反序列化,以及如何使用C++或Python API向引擎提供数据并执行推理;

For previously released TensorRT documentation, refer to the TensorRT Archives.

安装指南: NVIDIA TensorRT Installation Guide

快速开始指南: NVIDIA TensorRT Quick Start Guide i

案例: NVIDIA TensorRT Sample Support Guide

NVIDIA® TensorRT™是一个软件开发工具包(SDK),有助于实现高性能的机器学习推理。它旨在与TensorFlow、PyTorch和MXNet等训练框架相辅相成。它特别关注如何在NVIDIA硬件上快速且高效地运行已经训练好的网络。

对于英伟达的安培架构或者是更高的架构而言。多实例GPU(MIG)是NVIDIA具有NVIDIA Ampere架构或更新架构的GPU的一项功能,它允许用户将单个GPU定向划分为多个较小的GPU。物理分区提供专用的计算和内存切片,具有服务质量保证,并可在GPU的部分上独立执行并行工作负载。对于GPU利用率较低的TensorRT应用程序,MIG可以在对延迟影响较小或没有影响的情况下产生更高的吞吐量。最佳分区方案是特定于应用程序的。

互补软件

NVIDIA Triton™推理服务器是一个更高级别的库,可在CPU和GPU上提供优化的推理功能。它提供了启动和管理多个模型的功能,以及用于提供推理的REST和gRPC端点。

NVIDIA DALI®为预处理图像、音频和视频数据提供了高性能原语。TensorRT推理可以作为DALI管道中的自定义操作符进行集成。可以在此处找到TensorRT推理作为DALI一部分的工作示例。

TensorFlow-TensorRT (TF-TRT) 是将TensorRT直接集成到TensorFlow中的解决方案。它选择TensorFlow图中的子图以通过TensorRT进行加速,而将图的其余部分留给TensorFlow本地执行。结果仍然是一个TensorFlow图,您可以像往常一样执行它。有关TF-TRT的示例,请参阅TensorFlow中的TensorRT示例。

Torch-TensorRT (Torch-TRT) 是一个PyTorch-TensorRT编译器,可将PyTorch模块转换为TensorRT引擎。在内部,首先根据所选的中间表示(IR)将PyTorch模块转换为TorchScript/FX模块。编译器选择PyTorch图的子图以通过TensorRT进行加速,而图的其余部分则由Torch本地执行。结果仍然是一个可以像往常一样执行的PyTorch模块。有关示例,请参阅Torch-TRT示例。

TensorFlow量化工具包提供了用于以降低的精度训练和部署基于Tensorflow 2的Keras模型的实用工具。此工具包专门用于基于操作符名称、类和模式匹配来量化图中的不同层。然后可以将量化后的图转换为ONNX,然后转换为TensorRT引擎。有关示例,请参阅模型库。

PyTorch量化工具包提供了用于以降低的精度训练PyTorch模型的设施,然后可以将其导出以在TensorRT中进行优化。

此外,PyTorch Automatic Sparsity (ASP) 工具提供了用于训练具有结构化稀疏性的模型的设施,然后可以将其导出,并允许TensorRT在NVIDIA Ampere架构GPU上使用更快的稀疏策略。

TensorRT与NVIDIA的分析工具NVIDIA Nsight™ Systems和NVIDIA深度学习分析器(DLProf)集成在一起。

TensorRT的一个受限子集已获准用于NVIDIA DRIVE®产品。某些API仅标记为在NVIDIA DRIVE中使用,不支持一般使用。

ONNX

模型之间的统一语言--ONNX。

TensorRT从框架中导入训练模型的主要方式是通过ONNX交换格式。TensorRT附带了一个ONNX解析器库,以协助导入模型。在可能的情况下,解析器向后兼容至opset 9;ONNX模型Opset版本转换器可以帮助解决不兼容问题。

GitHub上的版本可能比与TensorRT一起提供的版本支持更新的opset。有关支持的opset和操作符的最新信息,请参阅ONNX-TensorRT操作符支持矩阵。对于TensorRT部署,我们建议导出到最新的可用ONNX opset。

TensorRT的ONNX操作符支持列表可以在here.找到。

PyTorch原生支持ONNX导出 ONNX export. 。对于TensorFlow,推荐的方法是使用tf2onnx。

将模型导出到ONNX后,第一步最好是使用Polygraphy运行常量折叠。这通常可以解决ONNX解析器中的TensorRT转换问题,并简化工作流程。有关详细信息,请参阅此示例 this example.。在某些情况下,可能需要进一步修改ONNX模型,例如,用插件替换子图或用其他操作重新实现不支持的操作。为了简化此过程,您可以使用ONNX-GraphSurgeon ONNX-GraphSurgeon.。

版本控制

TensorRT的版本号(MAJOR.MINOR.PATCH)遵循语义版本控制2.0.0标准,适用于其公共API和库ABI。版本号变化如下:

  • 当进行不兼容的API或ABI更改时,MAJOR(主)版本号会变化。
  • 当以向后兼容的方式添加功能时,MINOR(次)版本号会变化。
  • 当进行向后兼容的错误修复时,PATCH(补丁)版本号会变化。

请注意,语义版本控制并不适用于序列化对象。为了重复使用计划文件和计时缓存,主版本、次版本、补丁版本和构建版本(build versions)的版本号必须匹配(NVIDIA DRIVE OS 6.0开发者指南中详细说明了安全运行时的某些例外)。校准缓存通常可以在主版本内重复使用,但兼容性无法保证。

弃用策略

弃用政策用于通知开发者,某些API和工具已不建议使用。从8.0版本开始,TensorRT采用以下弃用政策:

弃用通知将在NVIDIA TensorRT发行说明中公布。

使用C++ API时:

  • API函数将标记为TRT_DEPRECATED_API宏。
  • 枚举将标记为TRT_DEPRECATED_ENUM宏。
  • 所有其他位置将标记为TRT_DEPRECATED宏。
  • 类、函数和对象将有一条声明,记录它们何时被弃用。

使用Python API时,如果使用了已弃用的方法和类,将在运行时发出弃用警告。

TensorRT在弃用后提供12个月的迁移期。

  • 在迁移期间,API和工具将继续工作。
  • 迁移期结束后,将按照语义版本控制的方式删除API和工具。

对于TensorRT 7.x中专门弃用的任何API和工具,12个月的迁移期从TensorRT 8.0 GA发布日期开始计算。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
并行计算 TensorFlow 算法框架/工具
tensorflow安装GPU版本
tensorflow安装GPU
143 0
tensorflow安装GPU版本
|
缓存 运维 Kubernetes
NVIDIA GPU Operator分析一:NVIDIA驱动安装
背景我们知道,如果在Kubernetes中支持GPU设备调度,需要做如下的工作:节点上安装nvidia驱动节点上安装nvidia-docker集群部署gpu device plugin,用于为调度到该节点的pod分配GPU设备。除此之外,如果你需要监控集群GPU资源使用情况,你可能还需要安装DCCM exporter结合Prometheus输出GPU资源监控信息。要安装和管理这么多的组件,对于运维
4437 0
NVIDIA GPU Operator分析一:NVIDIA驱动安装
|
并行计算 C++ 异构计算
Nvidia 并行计算架构 CUDA 分析(一)——CUDA 简介
    CUDA(Compute Unified Device Architecture,统一计算设备架构)是由 NVIDIA 推出的通用并行计算架构,该架构使 GPU 能够解决复杂的计算问题。
5073 0
|
2月前
|
Kubernetes 调度 算法框架/工具
NVIDIA Triton系列02-功能与架构简介
本文介绍了NVIDIA Triton推理服务器的功能与架构,强调其不仅适用于大型服务类应用,还能广泛应用于各类推理场景。Triton支持多种模型格式、查询类型和部署方式,具备高效的模型管理和优化能力,确保高性能和系统稳定性。文章详细解析了Triton的主从架构,包括模型仓库、客户端应用、通信协议和推理服务器的核心功能模块。
91 1
NVIDIA Triton系列02-功能与架构简介
|
2月前
|
机器学习/深度学习 人工智能 算法框架/工具
NVIDIA Triton系列01-应用概论
NVIDIA Triton推理服务器为AI服务类应用提供全面解决方案,支持多种处理器、框架及模型类型,优化部署与性能,适用于在线推荐、图像分类等场景。文中介绍了Triton在微软Teams、微信视觉应用及腾讯PCG在线推理中的成功案例,展示其在提升性能、降低成本方面的显著效果。
63 0
NVIDIA Triton系列01-应用概论
|
2月前
|
并行计算 API C++
Nvidia TensorRT系列01-TensorRT的功能1
NVIDIA TensorRT是一个高性能深度学习推理优化器和运行时,支持C++和Python API。其编程模型分为构建阶段和运行时阶段,前者优化模型,后者执行推理。TensorRT支持多种数据类型和精度,包括FP32、FP16、INT8等,并提供插件机制以扩展支持的操作。
69 0
|
2月前
|
存储 PyTorch API
NVIDIA Triton系列09-为服务器添加模型
本文介绍了如何为NVIDIA Triton模型仓库添加新模型。通过示例模型`inception_graphdef`的配置文件`config.pbtxt`,详细解释了模型名称、平台/后端名称、模型执行策略、最大批量值、输入输出节点及版本策略等配置项。内容涵盖了模型的基本要素和配置细节,帮助读者更好地理解和使用Triton服务器。
37 0
|
5月前
|
Linux TensorFlow 算法框架/工具
安装GPU版本的TensorFlow
【7月更文挑战第3天】安装GPU版本的TensorFlow。
241 1
|
7月前
|
机器学习/深度学习 并行计算 流计算
【GPU】GPU CUDA 编程的基本原理是什么?
【GPU】GPU CUDA 编程的基本原理是什么?
189 0
|
XML 数据格式 异构计算
笔记 ubuntu18.04安装cuda10.2 cudnn7.5,然后进行物体检测gpu训练
笔记 ubuntu18.04安装cuda10.2 cudnn7.5,然后进行物体检测gpu训练
93 1