双剑合璧!OpenPPL 支持 OpenMMLab 模型部署

简介: OpenPPL 是商汤基于自研高性能算子库的开源深度学习推理平台,提供云原生环境下的 AI 模型多后端部署能力。

今天给大家介绍 OpenMMLab 君的一位好基友——OpenPPL


咱俩师出同门。OpenPPL 是商汤基于自研高性能算子库的开源深度学习推理平台,提供云原生环境下的 AI 模型多后端部署能力。当然了,它也支持 OpenMMLab 的深度学习模型的高效部署。简单来说,用 OpenMMLab 开发的模型,可以通过 OpenPPL 高效可靠地运行在现有的 CPU、GPU 等计算平台上,为云端场景提供人工智能推理服务。


在性能方面,目前在单 batch 模型推理领域,OpenPPL 在部分模型的性能可以超越 TensorRT 的较新版本,大幅领先 onnxruntime 等开源平台。是不是很给力?


1.  双剑合璧



这部分主要介绍深度学习模型中,训练与部署的关系,对此比较熟悉的朋友,可直接略过,查看后文中支持的 OpenMMLab 模型列表。


要理解OpenPPL的作用,要解释下整个 AI 应用的开发链路


一般来说,整个过程会经过数据采集和算法模型设计,产出需要的算法模型;模型经过压缩与转换后,使用 AI 推理平台做推理;最后产品落地去使用。

640.png


不难看出,这个过程中有两步很关键:训练与推理


在训练阶段,开发者需要将数据集「投喂」给 OpenMMLab 体系中的算法,以训练神经网络。比如,分辨图像里的动物是一只猫还是一只狗,最终形成一个业务所需并且训练有素的算法模型。


推理则是用经过训练的模型,对新的数据进行预测,比如拿一张训练时没用过的新的图片,去分辨里面是猫还是狗。完成推理这一步,才算是人工智能技术落地应用的开始。


但要高效地部署模型,并不是一件那么容易的事。训练时可能只考虑模型效果好,但推理部署时不仅要考虑模型推理的效果,还要注意性能、运行速度等方面;又或者推理部署时使用的设备,与训练时的会不一样,从而达不到想要的效果。


这就好比说,一个没有做多设备适配的 App,很难指望它可以流畅地运行在各种手机上,即使安装上了,体验也可能不好。


作为 AI 应用落地最关键的一环,推理引擎 OpenPPL 的作用,就是让经过训练的模型可以更高效地运行起来,为开发者提供更好的人工智能推理服务。


不难看出,OpenPPL 结合深度学习时代最完整的计算机视觉开源算法体系(骄傲.jpg)OpenMMLab,可以达到 1+1>2 的效果。


2. 目前支持哪些模型?



OpenPPL 支持 OpenMMLab 各系列的前沿模型,同时提供模型前后处理所需图像处理算子。


1) 支持网络动态特性

2) 提供 MMCV 算子高性能实现

3) 遵循 ONNX 开放标准,提供 ONNX 转换支持


目前 OpenPPL 支持 OpenMMLab 以下模型:


 MMDetection



一个提供基准测试的目标检测开源工具箱


- Faster R_CNN

- RetinaNet

- SSD

- YOLOv3

- Mask R_CNN

- AutoAssign

- Double-Head RCNN

- Dynamic R-CNN

- FASF

- GHM

- Mask Scoring R-CNN

- TridentNet

- PAFPN

- YOLOF


MMClassification



一个提供基准测试的图像分类开源工具箱


- ResNet

- ResNeXt

- ResNeSt

- SE-ResNet

- MobileNetV2

- ShuffleNetV2

- VGG

MMSegmention



最全面的语义分割开源工具箱


- ANN

- APCNet

- DANet

- DeepLabV3

- DeepLabV3+

- DMNet

- DNLNet

- Fast-SCNN

- FCN

- GCNet

- HRNet

- NonLocal Net

- OCRNet

- PSPNet

- Semantic FPN

- UPerNet


MMEditing



一个用于编辑任务的图像和视频编辑工具箱


- DIM

- IndexNet

- SRCNN

- MSRResNet

- ESRGAN

- RDN

- EDSR


MMOCR



一个文本检测、文本识别和文本理解工具箱


- PSENet

- PANet


MMPose



一个支持多类物体的2D/3D姿态估计工具箱


- HRNet

- LiteHRNet

- MSPN


MMAction 2



下一代行为理解开源工具箱


- TSN

- SlowOnly


更多支持模型持续更新中 ~

文章来源:公众号【OpenMMLab】

 2021-09-09 14:00

目录
相关文章
|
18天前
|
算法 数据挖掘 调度
隐语实训营-第3讲:详解隐私计算框架的架构和技术要点
主要介绍隐语的隐私计算架构,并对每个模块进行拆解、分析,以期望不同使用者找到适合自己的模块,快速入手。
56 4
|
18天前
|
Python
隐语环境的搭建
https://www.bilibili.com/video/BV12r421t77V/ 忙着改论文,blog没法写的太详细了
|
18天前
|
开发工具 git Docker
隐私计算实训营 第四讲 快速上手隐语SecretFlow的安装和部署
在两台虚拟机(10.10.101.58:alice, 10.10.104.124:bob)上部署Secretflow,使用docker和`secretflow/secretflow-lite-anolis81.4.0b0`镜像。每台机器上运行docker容器,并通过`docker exec`启动Ray服务(Bob节点在8085端口)。接着,导入secretflow库,配置集群信息并初始化。Secretnode部署通过源码完成,克隆secretnote仓库,进入sim目录,运行`docker-compose up`。展示部署成功后的界面截图。
52 0
|
7月前
|
架构师 Cloud Native Java
构建可靠分布式架构的最佳方式,竟记在国内第一本“凤凰架构”上
本书是一本以“如何构建一套可靠的大型分布式系统”为叙述主线的技术手册。笔者十多年来一直从事大型企业级软件的架构研发工作,较完整地经历了从最早的大型单体系统到如今基于云原生基础设施的架构演变过程,希望借此机会,系统性地整理相关知识,查漏补缺,将它们都融入既有的知识框架之中,也希望能将这些知识与大家分享讨论。
|
9月前
|
机器学习/深度学习 算法 测试技术
蚂蚁集团开源代码大模型CodeFuse!(含魔搭体验和最佳实践)
蚂蚁集团在刚刚结束的2023外滩大会上开源了代码大模型CodeFuse,目前在魔搭社区可下载、体验。
|
11月前
|
机器学习/深度学习 人工智能 资源调度
隐语1.0正式发布|MVP部署体验包、资源调度框架Kuscia全新亮相!
隐语1.0正式发布|MVP部署体验包、资源调度框架Kuscia全新亮相!
239 0
|
人工智能 边缘计算 Cloud Native
阿里云历时13年,站上世界现代计算架构之巅
阿里云历时13年,站上世界现代计算架构之巅
168 0
|
机器学习/深度学习 算法 数据挖掘
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法(1)
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法
129 0
|
编解码 算法 数据挖掘
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法(2)
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法
245 0