时间回到 2 月 25 日下午 6 点,我们的 Z 同学在模型部署后,推理图像的时候,输入图像预处理时间远远超出预期,竟然达到了 2 秒!Z 同学又是改函数又是 debug,还是一头雾水。可 Z 同学锲而不舍,继续钻研,最后推理成功了,但是奈何遇到了推理性能低、速度慢的问题。几经辗转,还是不得解决……
群里的躁动引起了我们江湖大佬晗哥的注意,看到社区同学这么困扰,还怎么坐得住。当天晚上 6:25 分直接撂下狠话,答应码个文档,从搭建环境、到模型转换、到模型运行,手把手教学,快速上手 MMDeploy!
MMDeploy Example for Ubuntu
注意!
以下操作,是在临时目录 /tmp 下,进行演示。大家根据自己的实际情况,选择合适的工作目录。
1. 下载 MMDeploy,设置 MMDeploy 目录
为当前环境变量
git clone -b master git@github.com:open-mmlab/mmdeploy.git MMDeploy cd MMDeploy git submodule update --init --recursive export MMDEPLOY_DIR=`pwd`
Tips
走 GitHub 可能会因为网络问题过程坎坷,所以无法使用代理的同学可以动动小手在 gitee 带着子仓库克隆一份。
2. 准备编译工具链
2.1 cmake>=3.14
sudo apt-get install -y libssl-dev wget https://github.com/Kitware/CMake/releases/download/v3.20.0/cmake-3.20.0.tar.gz tar -zxvf cmake-3.20.0.tar.gz cd cmake-3.20.0 ./bootstrap make sudo make install
2.2 gcc>=7
• 当 ubuntu >= 18.04, gcc 版本默认为 7 或以上,不用安装。
• 当 ubuntu == 16.04 时,可用以下命令。
sudo add-apt-repository ppa:ubuntu-toolchain-r/test sudo apt-get update sudo apt-get install gcc-7 sudo apt-get install g++-7
3. 下载安装依赖库
3.1 Model Converter 的依赖库
1)创建以及激活 conda 环境(需要安装 anaconda 或者 miniconda )
conda create -n mmdeploy python=3.7 -y conda activate mmdeploy
2)安装 pytorch >= 1.8.0
Tips
示例环境中 cuda 版本是11.1。如果你的 cuda 版本不是11.1,一定要参考 pytorch 官网,选择合适的安装包。
# CUDA 11.1 conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolkit=11.1 -c pytorch -c conda-forge
3)安装 mmcv-full
Tips
示例环境中 cuda 版本是 11.1。如果你的 cuda 版本不是 11.1,参考 MMCV 官方文档,选择合适的包安装。
export cu_version=cu111 export torch_version=torch1.8 pip install mmcv-full==1.4.0 -f https://download.openmmlab.com/mmcv/dist/${cu_version}/${torch_version}/index.html
3.2 SDK 的依赖
1)安装 Spdlog
如果 ubuntu >= 18.04,
sudo apt-get install libspdlog-dev
ubuntu == 16.04,
wget http://archive.ubuntu.com/ubuntu/pool/universe/s/spdlog/libspdlog-dev_0.16.3-1_amd64.deb sudo dpkg -i libspdlog-dev_0.16.3-1_amd64.deb
2)Opencv
Tips
需要安装 v3+ 以上的版本。
如果 ubuntu >= 18.04,
sudo apt-get install libopencv-dev
如果 ubuntu == 16.04,
需要从源码安装,参考:
https://docs.opencv.org/3.4/d2/de6/tutorial_py_setup_in_ubuntu.html
3)ppl.cv
git clone https://github.com/openppl-public/ppl.cv.git cd ppl.cv git checkout tags/v0.6.2 -b v0.6.2 ./build.sh cuda
3.3 后端推理引擎
安装 TensorRT
需下载和 cuda 版本配套的 tensorrt 和 cudnn 压缩包。示例环境是 cuda11.1 ,所以下载了如下的压缩包:
-TensorRT-8.2.1.8.Linux.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz
-cudnn-11.3-linux-x64-v8.2.1.32.tgz
解压上述两个压缩包,安装 TensorRT。
tar -xvf TensorRT-8.2.1.8.Linux.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz tar -xvf cudnn-11.3-linux-x64-v8.2.1.32.tgz pip install TensorRT-8.2.1.8/python/tensorrt-8.2.1.8-cp37-none-linux_x86_64.whl
4. 编译 MMDeploy
cd ${MMDEPLOY_DIR} # 编译 MMDeploy 库 mkdir -p build && cd build cmake .. -DCMAKE_CXX_COMPILER=g++-7 -DMMDEPLOY_BUILD_SDK=ON -DMMDEPLOY_TARGET_DEVICES="cpu;cuda" -DMMDEPLOY_TARGET_BACKENDS="trt" \ -DMMDEPLOY_CODEBASES=all \ -DMMDEPLOY_BUILD_SDK_PYTHON_API=ON \ -Dpplcv_DIR=/tmp/ppl.cv/cuda-build/install/lib/cmake/ppl \ -DTENSORRT_DIR=/tmp/TensorRT-8.2.1.8 \ -DCUDNN_DIR=/tmp/cuda # 安装 MMDeploy 的 Model Converter cd ${MMDEPLOY_DIR} pip install -e .
Tips
以上是在临时目录 /tmp 下,进行演示。大家根据自己的实际情况,选择合适的工作目录。
5. 转换模型
这里使用 MMDetection 中的 RetinaNet 为例:
# 设置环境变量 export LD_LIBRARY_PATH=/tmp/TensorRT-8.2.1.8/lib/:$LD_LIBRARY_PATH export LD_LIBRARY_PATH=/tmp/cuda/lib64:$LD_LIBRARY_PATH # 模型转换 python tools/deploy.py configs/mmdet/detection/detection_tensorrt_dynamic-320x320-1344x1344.py ../mmdetection/configs/retinanet/retinanet_r50_fpn_1x_coco.py~/Data/checkpoints/retinanet_r50_fpn_1x_coco_20200130-c2398f9e.pth ~/mmdeploy_test_resources/mmdet/images/dog.jpg --device cuda --work-dir /tmp/retinanet --dump-info
6. 使用 SDK 测试模型
6.1 使用 SDK Python 接口
样例代码 test.py
# 调用 MMDeploy SDK python API,输入上述模型转换产生的sdk model路径,图像,得到检测结果 import mmdeploy_python import sys import cv2 # 第一个参数是模型转换命令中 --work-dir选项的值 detector = mmdeploy_python.Detector('/tmp/retinanet', 'cuda', 0) # 需要读取自己路径下的图片 img = cv2.imread( '/home/PJLAB/lvhan/mmdeploy_test_resources/mmdet/images/dogs.jpg') result = detector([img]) print(result)
执行
#设置环境变量 export PYTHONPATH=/tmp/MMDeploy/build/lib/ python test.py
文章来源:【OpenMMLab】
2022-03-21 18:03