编译onnx-tensorrt产生libnvonnxparser.so

简介: 编译onnx-tensorrt产生libnvonnxparser.so

TensorRT 4.0没有这个,只能自己产生。5.0就有了。

git clone --recursive https://github.com/onnx/onnx-tensorrt.git
rm -rf build
mkdir build
cd build
cmake .. -DTENSORRT_ROOT=/home/quantum6/TensorRT-4.0.1.6
make -j8
sudo make install

注意,TensorRT使用绝对路径。


如果遇到错误,参考:


《onnx-tensorrt:builtin_op_importers.cpp:628:5: error: ‘IIdentityLayer’ is not a member of ‘nvinfer1’》


https://blog.csdn.net/quantum7/article/details/88781720


目录
相关文章
|
机器学习/深度学习 缓存 PyTorch
PyTorch 2.0 推理速度测试:与 TensorRT 、ONNX Runtime 进行对比
PyTorch 2.0 于 2022 年 12 月上旬在 NeurIPS 2022 上发布,它新增的 torch.compile 组件引起了广泛关注,因为该组件声称比 PyTorch 的先前版本带来更大的计算速度提升。
910 0
|
3月前
|
分布式计算 MaxCompute 对象存储
|
3月前
|
人工智能 PyTorch 算法框架/工具
Ascend Extension for PyTorch是个what?
Ascend Extension for PyTorch 是针对华为昇腾处理器的PyTorch框架适配插件,旨在让PyTorch开发者能充分利用昇腾AI处理器的强大计算能力。此扩展通过最小化对原生PyTorch的改动,实现了对昇腾NPU的支持,包括动态图特性、自动微分等功能的完整继承,并提供了与原生PyTorch一致的使用体验。项目详情及源码可在昇腾社区获取。
Ascend Extension for PyTorch是个what?
|
3月前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
10月前
|
计算机视觉
ONNX转换NCNN
ONNX转换NCNN
491 0
|
开发者
onnx 模型修改
已经生成的onnx 模型删除后处理sigmoid mul等层
396 0
|
机器学习/深度学习 并行计算 API
TensorRT安装
TensorRT安装
1217 0
|
前端开发 TensorFlow 算法框架/工具
编译 TensorFlow 模型
编译 TensorFlow 模型
132 0
|
TensorFlow 算法框架/工具 Python
Python升级tensorflow2.x版本相关问题:No module named ‘tensorflow.contrib‘ 问题解决
Python升级tensorflow2.x版本相关问题:No module named ‘tensorflow.contrib‘ 问题解决
344 0
编译onnx-tensorrt产生libnvonnxparser.so
编译onnx-tensorrt产生libnvonnxparser.so
108 0

热门文章

最新文章