编译onnx-tensorrt产生libnvonnxparser.so

简介: 编译onnx-tensorrt产生libnvonnxparser.so

TensorRT 4.0没有这个,只能自己产生。5.0就有了。

git clone --recursive https://github.com/onnx/onnx-tensorrt.git
rm -rf build
mkdir build
cd build
cmake .. -DTENSORRT_ROOT=/home/quantum6/TensorRT-4.0.1.6
make -j8
sudo make install

注意,TensorRT使用绝对路径。


如果遇到错误,参考:


《onnx-tensorrt:builtin_op_importers.cpp:628:5: error: ‘IIdentityLayer’ is not a member of ‘nvinfer1’》


https://blog.csdn.net/quantum7/article/details/88781720


目录
相关文章
|
机器学习/深度学习 缓存 PyTorch
PyTorch 2.0 推理速度测试:与 TensorRT 、ONNX Runtime 进行对比
PyTorch 2.0 于 2022 年 12 月上旬在 NeurIPS 2022 上发布,它新增的 torch.compile 组件引起了广泛关注,因为该组件声称比 PyTorch 的先前版本带来更大的计算速度提升。
860 0
|
14天前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
4月前
|
TensorFlow 算法框架/工具
【Python-Tensorflow】tf.concat()的解析与使用
介绍了TensorFlow中tf.concat()函数的用法,它用于将输入张量沿指定的axis维度合并。
45 3
|
7月前
|
计算机视觉
ONNX转换NCNN
ONNX转换NCNN
373 0
|
机器学习/深度学习 搜索推荐 TensorFlow
inference.py的代码解释
这是一个 Python 脚本,它用于导出经过训练的模型,使其可以在生产环境中进行推理。该脚本首先使用 TensorFlow 的 flags 定义了一些参数,如模型版本号、模型路径、输出目录等等。然后,它创建了一个名为 inference_graph 的 TensorFlow 图,并定义了一个 InferenceModel,该模型用于从输入数据中推断评级。
476 0
|
机器学习/深度学习 并行计算 API
TensorRT安装
TensorRT安装
1140 0
|
开发者
onnx 模型修改
已经生成的onnx 模型删除后处理sigmoid mul等层
357 0
|
前端开发 TensorFlow 算法框架/工具
编译 TensorFlow 模型
编译 TensorFlow 模型
116 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch中nn.Parameter()使用方法
pytorch中nn.Parameter()使用方法
1445 1
编译onnx-tensorrt产生libnvonnxparser.so
编译onnx-tensorrt产生libnvonnxparser.so
95 0