Tensor RT学习笔记(一)

简介:

概述:
NVIDIA TensorRT™是一个C ++库,可以帮助NVIDIA图形处理器(GPU)进行高性能推理。 TensorRT通过合并张量和图层,转换权重,选择高效的中间数据格式,并根据图层参数和测量的性能从大型内核目录中进行选择,从而对网络进行定义并对其进行优化。
TensorRT包含导入方法,可帮助您表达经过训练的TensorRT深度学习模型,以进行优化和运行。 它是一种优化工具,可以应用图形优化和图层融合,并利用各种高度优化的内核集合以及可用于在推理上下文中执行此网络的运行时找到该模型的最快实现。
TensorRT包含导入方法,可帮助您表达经过训练的TensorRT深度学习模型,以进行优化和运行。 它是一种优化工具,可以应用图形优化和图层融合,并利用各种高度优化的内核集合以及可用于在推理上下文中执行此网络的运行时找到该模型的最快实现。
TensorRT包含一个基础架构,可让您利用Pascal和Volta GPU的高速降低精度功能作为可选优化。
TensorRT 层:
TensorRT直接支持以下层:
激活层:
激活层实现了每个元素的激活功能。 支持的激活类型是校正后的线性单位(ReLU),双曲正切(tanh)和“s”形曲线(sigmoid)。
级联层:
连接层将整个通道维度上相同高度和宽度的多个张量链接在一起。
卷积层:
卷积层计算具有或不具有偏差的3D(通道,高度和宽度)卷积。
反卷积层:
反卷积层实现反卷积,有或没有偏差。
ElementWise:
ElementWise层也称为Eltwise层,实现了每个元素的操作。 支持的操作是总和,产品,最大值,减法,除法和功率
Flatten:
Flatten图层在保持batch_size的同时展平输入。 假定第一维表示批次。 Flatten图层只能放置在完全连接图层的前面。
全连接层:
FullyConnected层实现了具有或不具有偏差的矩阵向量乘积。
LRN:
LRN层实现跨信道本地响应规范化。
Padding:
填充层实现张量的空间零填充。 每个轴上的填充可以不同,不对称,也可以是正数(导致张量扩展)或负数(导致修整)。
插入(Plugin):
插件层允许您集成TensorRT本身不支持的自定义图层实现。
池化pooling:
Pooling层在通道内实现池化。 支持的池类型是最大和平均值。
RNN:
RNN层实现递归层,例如递归神经网络(RNN),门控循环单元(GRU)和长期短期记忆(LSTM)。 支持的类型有RNN,GRU和LSTM
Scale:
Scale图层实现每个张量,每个通道或每个权重仿射变换和/或通过常量值取幂。
Shuffle:
shuffle层实现张量的重新洗牌。 它可以用来重塑或转置数据。
SoftMax:
SoftMax层实现了一个交叉通道SoftMax。
Squeeze:
Squeeze层从张量形状中移除尺寸1的尺寸。 Squeeze层仅实现二元挤压(去除特定尺寸1维)。 批量维度无法删除。
Unary:
Unary层支持逐点操作。 支持的操作是exp,log,sqrt,recip,abs和neg。
u_526476377_2219579762_fm_27_gp_0

目录
相关文章
|
存储 PyTorch 算法框架/工具
Tensor to img && imge to tensor (pytorch的tensor转换)
Tensor to img && imge to tensor (pytorch的tensor转换)
|
1月前
|
TensorFlow 算法框架/工具
Tensorflow error(二):x and y must have the same dtype, got tf.float32 != tf.int32
本文讨论了TensorFlow中的一个常见错误,即在计算过程中,变量的数据类型(dtype)不一致导致的错误,并通过使用`tf.cast`函数来解决这个问题。
24 0
|
Docker 容器
求助: 运行模型时报错module 'megatron_util.mpu' has no attribute 'get_model_parallel_rank'
运行ZhipuAI/Multilingual-GLM-Summarization-zh的官方代码范例时,报错AttributeError: MGLMTextSummarizationPipeline: module 'megatron_util.mpu' has no attribute 'get_model_parallel_rank' 环境是基于ModelScope官方docker镜像,尝试了各个版本结果都是一样的。
402 5
|
6月前
|
存储 PyTorch 算法框架/工具
torch.Storage()是什么?和torch.Tensor()有什么区别?
torch.Storage()是什么?和torch.Tensor()有什么区别?
42 1
|
API 数据格式
TensorFlow2._:model.summary() Output Shape为multiple解决方法
TensorFlow2._:model.summary() Output Shape为multiple解决方法
278 0
TensorFlow2._:model.summary() Output Shape为multiple解决方法
|
并行计算 Python
TypeError: can‘t convert CUDA tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory
运行程序,出现报错信息 TypeError: can't convert CUDA tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.。
313 0
|
PyTorch 算法框架/工具 异构计算
Pytorch出现RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor)
这个问题的主要原因是输入的数据类型与网络参数的类型不符。
585 0
|
PyTorch 算法框架/工具 索引
详细介绍torch中的from torch.utils.data.sampler相关知识
PyTorch中的torch.utils.data.sampler模块提供了一些用于数据采样的类和函数,这些类和函数可以用于控制如何从数据集中选择样本。下面是一些常用的Sampler类和函数的介绍: Sampler基类: Sampler是一个抽象类,它定义了一个__iter__方法,返回一个迭代器,用于生成数据集中的样本索引。 RandomSampler: 随机采样器,它会随机从数据集中选择样本。可以设置随机数种子,以确保每次采样结果相同。 SequentialSampler: 顺序采样器,它会按照数据集中的顺序,依次选择样本。 SubsetRandomSampler: 子集随机采样器
634 0
|
PyTorch 算法框架/工具
pytorch报错 RuntimeError: The size of tensor a (25) must match the size of tensor b (50) at non-singleton dimension 1 怎么解决?
这个错误提示表明,在进行某个操作时,张量a和b在第1个非单例维(即除了1以外的维度)上的大小不一致。例如,如果a是一个形状为(5, 5)的张量,而b是一个形状为(5, 10)的张量,则在第二个维度上的大小不匹配。
3689 0
|
TensorFlow 算法框架/工具
ValueError: Negative dimension size caused by subtracting 5 from 1 for ‘{{node le_net5/conv2d/Conv2D
ValueError: Negative dimension size caused by subtracting 5 from 1 for ‘{{node le_net5/conv2d/Conv2D
177 0