双剑合璧!OpenPPL 支持 OpenMMLab 模型部署

简介: OpenPPL 是商汤基于自研高性能算子库的开源深度学习推理平台,提供云原生环境下的 AI 模型多后端部署能力。

今天给大家介绍 OpenMMLab 君的一位好基友——OpenPPL


咱俩师出同门。OpenPPL 是商汤基于自研高性能算子库的开源深度学习推理平台,提供云原生环境下的 AI 模型多后端部署能力。当然了,它也支持 OpenMMLab 的深度学习模型的高效部署。简单来说,用 OpenMMLab 开发的模型,可以通过 OpenPPL 高效可靠地运行在现有的 CPU、GPU 等计算平台上,为云端场景提供人工智能推理服务。


在性能方面,目前在单 batch 模型推理领域,OpenPPL 在部分模型的性能可以超越 TensorRT 的较新版本,大幅领先 onnxruntime 等开源平台。是不是很给力?


1.  双剑合璧



这部分主要介绍深度学习模型中,训练与部署的关系,对此比较熟悉的朋友,可直接略过,查看后文中支持的 OpenMMLab 模型列表。


要理解OpenPPL的作用,要解释下整个 AI 应用的开发链路


一般来说,整个过程会经过数据采集和算法模型设计,产出需要的算法模型;模型经过压缩与转换后,使用 AI 推理平台做推理;最后产品落地去使用。

640.png


不难看出,这个过程中有两步很关键:训练与推理


在训练阶段,开发者需要将数据集「投喂」给 OpenMMLab 体系中的算法,以训练神经网络。比如,分辨图像里的动物是一只猫还是一只狗,最终形成一个业务所需并且训练有素的算法模型。


推理则是用经过训练的模型,对新的数据进行预测,比如拿一张训练时没用过的新的图片,去分辨里面是猫还是狗。完成推理这一步,才算是人工智能技术落地应用的开始。


但要高效地部署模型,并不是一件那么容易的事。训练时可能只考虑模型效果好,但推理部署时不仅要考虑模型推理的效果,还要注意性能、运行速度等方面;又或者推理部署时使用的设备,与训练时的会不一样,从而达不到想要的效果。


这就好比说,一个没有做多设备适配的 App,很难指望它可以流畅地运行在各种手机上,即使安装上了,体验也可能不好。


作为 AI 应用落地最关键的一环,推理引擎 OpenPPL 的作用,就是让经过训练的模型可以更高效地运行起来,为开发者提供更好的人工智能推理服务。


不难看出,OpenPPL 结合深度学习时代最完整的计算机视觉开源算法体系(骄傲.jpg)OpenMMLab,可以达到 1+1>2 的效果。


2. 目前支持哪些模型?



OpenPPL 支持 OpenMMLab 各系列的前沿模型,同时提供模型前后处理所需图像处理算子。


1) 支持网络动态特性

2) 提供 MMCV 算子高性能实现

3) 遵循 ONNX 开放标准,提供 ONNX 转换支持


目前 OpenPPL 支持 OpenMMLab 以下模型:


 MMDetection



一个提供基准测试的目标检测开源工具箱


- Faster R_CNN

- RetinaNet

- SSD

- YOLOv3

- Mask R_CNN

- AutoAssign

- Double-Head RCNN

- Dynamic R-CNN

- FASF

- GHM

- Mask Scoring R-CNN

- TridentNet

- PAFPN

- YOLOF


MMClassification



一个提供基准测试的图像分类开源工具箱


- ResNet

- ResNeXt

- ResNeSt

- SE-ResNet

- MobileNetV2

- ShuffleNetV2

- VGG

MMSegmention



最全面的语义分割开源工具箱


- ANN

- APCNet

- DANet

- DeepLabV3

- DeepLabV3+

- DMNet

- DNLNet

- Fast-SCNN

- FCN

- GCNet

- HRNet

- NonLocal Net

- OCRNet

- PSPNet

- Semantic FPN

- UPerNet


MMEditing



一个用于编辑任务的图像和视频编辑工具箱


- DIM

- IndexNet

- SRCNN

- MSRResNet

- ESRGAN

- RDN

- EDSR


MMOCR



一个文本检测、文本识别和文本理解工具箱


- PSENet

- PANet


MMPose



一个支持多类物体的2D/3D姿态估计工具箱


- HRNet

- LiteHRNet

- MSPN


MMAction 2



下一代行为理解开源工具箱


- TSN

- SlowOnly


更多支持模型持续更新中 ~

文章来源:公众号【OpenMMLab】

 2021-09-09 14:00

目录
相关文章
|
6月前
|
数据采集 自然语言处理 前端开发
社区供稿 | 猎户星空百亿参数大模型 Orion-14B系列开源,一张3060就能跑(附魔搭社区推理微调最佳实践)
1月21日,傅盛在猎户星空大模型发布会上宣布,“为企业应用而生” 的开源百亿参数猎户星空大模型正式发布。猎户星空大模型(Orion-14B)是由猎户星空研发的预训练多语言大语言模型,以其140亿参数规模展现出了卓越的性能。
|
3月前
|
人工智能 Swift 决策智能
社区供稿 | 面向多样应用需求,书生·浦语2.5开源超轻量、高性能多种参数版本
在 2024 年 7 月 4 日的 WAIC 科学前沿主论坛上,上海人工智能实验室推出了书生·浦语系列模型的全新版本——InternLM2.5。
|
5月前
|
人工智能 安全 数据处理
《百炼成金-大金融模型新篇章》––04.问题2:“开源模型vs商业模型”,左右互搏的自建大模型之路
百炼必定成金,新质生产力会催生新质劳动力,谨以此文抛砖引玉,希望与业内的各位朋友一同探讨如何积极拥抱并运用大模型技术,以应对和驾驭不断变化的市场环境,实现科技金融持续稳定的提质增效和创新发展,携手开启金融大模型未来新篇章。
|
6月前
|
数据采集 机器学习/深度学习 存储
性能提升30%!中国电信进一步开源12B星辰大模型TeleChat-12B!魔搭社区最佳实践来啦!
中国电信人工智能研究院开源12B参数规模星辰语义大模型TeleChat-12B,相较1月开源7B版本,内容、性能和应用等方面整体效果提升30%,其中,多轮推理、安全问题等领域提升超40%。在C-eval、MMLU、AGIEVAL等国际权威榜单上,排名处于国内同级别参数开源模型的前列,进一步促进大模型开源生态繁荣,助力AI产业加速高质量发展。另据悉,中国电信人工智能研究院将于年内开源千亿级参数大模型。
|
6月前
|
人工智能 自然语言处理 数据可视化
书生·浦语 2.0 开源!回归语言建模本质,综合性能领先开源社区,魔搭最佳实践来啦!
1月17日,上海人工智能实验室与商汤科技联合香港中文大学和复旦大学正式发布新一代大语言模型书生·浦语2.0(InternLM2),模型开源可商用,魔搭社区作为首发平台,支持大家第一时间下载体验。
|
机器学习/深度学习 算法 数据挖掘
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法(1)
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法
191 0
|
编解码 算法 数据挖掘
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法(2)
浙大发布「数据混合增强」框架AutoMix,还顺手开源了众多mixup算法
306 0
|
存储 人工智能 弹性计算
阿里云CTO周靖人:大模型风起云涌,阿里云将毫无保留地开放各项能力
阿里云CTO周靖人:大模型风起云涌,阿里云将毫无保留地开放各项能力
428 0
|
运维 安全 Cloud Native
化繁为简,PingCAP与阿里云计算巢联合方案深度解析
让数据库回归本来的样子,将复杂交给 TiDB,把简单留给用户。
化繁为简,PingCAP与阿里云计算巢联合方案深度解析
下一篇
无影云桌面