【nvidia jetson xavier】 Deepstream Yolov3示例模型运行

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,5000CU*H 3个月
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 【nvidia jetson xavier】 Deepstream Yolov3示例模型运行

作者声明

版权声明:本文为博主原创文章,遵循 CC 4.0 BYSA 版权协议,转载请附上原文出处链接和本声明。

原文链接:https://www.cnblogs.com/phoenixash/p/15403392.html

Deepstream Yolov3示例模型运行

https://blog.csdn.net/u010414589/article/details/115338399

DeepStream在安装完成后,默认会自动安装到以下目录内:/opt/nvidia/deepstream/deepstream5.1。

通过objectDetector_Yolo工程来编译生成动态链接库(一个so文件)

1.准备配置文件

在/opt/nvidia/deepstream/deepstream5.1/sources目录下找到objectDetector_Yolo: 提供了一个 YOLO 模型的工作示例:

在objectDetector_Yolo 目录内,包含三部分内容:

  • nvdsinfer_custom_impl_yolo文件夹: yolo实现代码
  • 配置文件:支持yoloV2, yoloV2_tiny, yoloV3, yoloV3_tiny。这里介绍Yolov3的配置,其他同理。
  • 模型文件:这两个文件原始工程中没有,需要从darknet官网上下载。下载后放入objectDetector_Yolo文件夹下。

2.编译与运行

进入到/opt/nvidia/deepstream/deepstream5.0/sources/objectDetector_Yolo 目录下

cd /opt/nvidia/deepstream/deepstream-5.0/sources/objectDetector_Yolo

依次执行以下两句命令,编译生成so文件。

export CUDA_VER=10.2    # 设置与设备相同的CUDA版本
make -C nvdsinfer_custom_impl_Yolo

编译后会在nvdsinfer_custom_impl_Yolo中生成动态库文件,libnvdsinfer_custom_impl_Yolo.so动态库文件。

【问题】需要root权限

描述:export CUDA_VER=10.2后,无法make,通过sudo make,则export CUDA_VER=10.2配置无效

解决:修改文件夹(objectDetector_Yolo和nvdsinfer_custom_impl_Yolo)权限:

sudo chmod 777 objectDetector_Yolo
sudo chmod 777 objectDetector_Yolo/nvdsinfer_custom_impl_Yolo
sudo chmod -R 777 /opt/nvidia/deepstream/deepstream-5.1/sources/

3.运行

deepstream-app -c deepstream_app_config_yoloV3.txt 

【报错】failed to create element ‘src_bin_muxer’

** ERROR: <create_multi_source_bin:714>: Failed to create element 'src_bin_muxer'
** ERROR: <create_multi_source_bin:777>: create_multi_source_bin failed
** ERROR: <create_pipeline:1045>: create_pipeline failed
** ERROR: <main:632>: Failed to create pipeline
Quitting
App run failed
————————————————
原文链接:https://blog.csdn.net/zong596568821xp/article/details/103902585

因为gstreamer缓存问题,运行下边指令删除即可

rm ${HOME}/.cache/gstreamer-1.0/registry.*

运行

deepstream-app -c deepstream_app_config_yoloV3.txt 

运行成功后,会显示检测画面。


AIEarth是一个由众多领域内专家博主共同打造的学术平台,旨在建设一个拥抱智慧未来的学术殿堂!【平台地址:https://devpress.csdn.net/aiearth】 很高兴认识你!加入我们共同进步!

目录
相关文章
|
27天前
Jetson学习笔记(二):TensorRT 查看模型的输入输出
这篇博客介绍了如何使用TensorRT查看模型的输入输出,并通过代码示例展示了如何获取和验证模型的输入输出信息。
81 5
|
27天前
|
并行计算 API C++
Nvidia TensorRT系列01-TensorRT的功能1
NVIDIA TensorRT是一个高性能深度学习推理优化器和运行时,支持C++和Python API。其编程模型分为构建阶段和运行时阶段,前者优化模型,后者执行推理。TensorRT支持多种数据类型和精度,包括FP32、FP16、INT8等,并提供插件机制以扩展支持的操作。
46 0
|
26天前
|
存储 PyTorch API
NVIDIA Triton系列09-为服务器添加模型
本文介绍了如何为NVIDIA Triton模型仓库添加新模型。通过示例模型`inception_graphdef`的配置文件`config.pbtxt`,详细解释了模型名称、平台/后端名称、模型执行策略、最大批量值、输入输出节点及版本策略等配置项。内容涵盖了模型的基本要素和配置细节,帮助读者更好地理解和使用Triton服务器。
29 0
|
11月前
|
XML 数据格式 异构计算
笔记 ubuntu18.04安装cuda10.2 cudnn7.5,然后进行物体检测gpu训练
笔记 ubuntu18.04安装cuda10.2 cudnn7.5,然后进行物体检测gpu训练
85 1
|
机器学习/深度学习 并行计算 API
TensorRT安装
TensorRT安装
1088 0
|
机器学习/深度学习 TensorFlow 调度
YOLOV5 v6.1更新 | TensorRT+TPU+OpenVINO+TFJS+TFLite等平台一键导出和部署
YOLOV5 v6.1更新 | TensorRT+TPU+OpenVINO+TFJS+TFLite等平台一键导出和部署
243 0
|
机器学习/深度学习 并行计算 Linux
Linux安装cuda10.1,cudnn7.6.4 (深度学习) MindSporeGPU计算框架
Linux安装cuda10.1,cudnn7.6.4 (深度学习) MindSporeGPU计算框架
416 0
Linux安装cuda10.1,cudnn7.6.4 (深度学习) MindSporeGPU计算框架
|
机器学习/深度学习 存储 并行计算
在TPU上运行PyTorch的技巧总结
在TPU上运行PyTorch的技巧总结
347 0
在TPU上运行PyTorch的技巧总结
|
PyTorch 算法框架/工具 Python
【nvidia jetson xavier】Deepstream 自定义检测Yolo v5模型部署
【nvidia jetson xavier】Deepstream 自定义检测Yolo v5模型部署
411 0
|
Ubuntu PyTorch 算法框架/工具
【nvidia jetson xavier】Deepstream Yolox,Yolov4,Yolov5模型部署
【nvidia jetson xavier】Deepstream Yolox,Yolov4,Yolov5模型部署
432 0