FastDeploy完成实时扣图模型部署

简介: FastDeploy完成实时扣图模型部署

FastDeploy完成实时扣图模型部署


FastDeploy干啥的


  • 基于「AI模型和硬件」的低门槛部署工具箱。
  • 服务于开发者的最优部署实践。


能力


  • 模型:人脸检测、人脸识别、人像扣图、目标检测、目标分类、OCR等。
  • 硬件:支持x86 CPU、Nvida GPU、Jetson、ARM CPU、ARM NPU的部署。
  • 推理引擎:TensorRT、ONNXRuntime、Paddle Inference、Paddle Lite、RKNN

完整能力列表,见github:github.com/PaddlePaddl…

image.png

**### 待部署模型能力展示——实时扣图

image.png


1. Python + CPU部署流程


运行Demo,感受部署能力


1.安装FastDeploy的lib库 
2.准备实时扣图MODNet模型 和 推理示例代码
3.运行推理代码


API调用,集成到自己项目中


## 运行Demo,感受部署能力
# (1) 安装FastDeploy CPU库
!pip install fastdeploy-python -f https://www.paddlepaddle.org.cn/whl/fastdeploy.html -q
# (2)准备MODNet模型和推理示例代码
# 推理示例代码;(如果是自己调用API完成,这部分代码都可以不用下载)
# !git clone https://gitee.com/PaddlePaddle/FastDeploy.git
%cd FastDeploy/examples/vision/matting/modnet/python/
/home/aistudio/FastDeploy/examples/vision/matting/modnet/python
!pip list|grep fastdeploy
fastdeploy-python      0.2.0
# 下载提前转换好的推理模型和图像
!wget https://bj.bcebos.com/paddlehub/fastdeploy/modnet_photographic_portrait_matting.onnx
# !wget https://raw.githubusercontent.com/DefTruth/lite.ai.toolkit/main/examples/lite/resources/test_lite_matting_input.jpg
--2022-08-26 16:39:02--  https://raw.githubusercontent.com/DefTruth/lite.ai.toolkit/main/examples/lite/resources/test_lite_matting_input.jpg
正在解析主机 raw.githubusercontent.com (raw.githubusercontent.com)... 185.199.108.133, 185.199.109.133, 185.199.110.133, ...
正在连接 raw.githubusercontent.com (raw.githubusercontent.com)|185.199.108.133|:443... 已连接。
已发出 HTTP 请求,正在等待回应... 200 OK
长度: 278476 (272K) [image/jpeg]
正在保存至: “test_lite_matting_input.jpg”
         test_lite_   0%[                    ]   1.34K   327 B/s    eta 14m 7s ^C
# CPU 推理预测,输出结果保存在FastDeploy/examples/vision/matting/modnet/python/visualized_result.jpg图像中
!python infer.py --model modnet_photographic_portrait_matting.onnx --image 1.jpg --device cpu
Visualized result save in ./visualized_result.jpg

#API调用,集成到自己项目中(需按FastDeploy模型文档要求,准备好部署模型;或者直接下载FastDeploy中已经提供好的模型)


(此处打开infer.py直接讲解就行。)


image.pngimage.png


2. Python + GPU部署流程


特别说明:


  1. GPU部署与CPU部署流程区别:
  • GPU部署,需要提前准备好CUDA>=11.2环境要求,CUCA版本需要按照FastDeploy软硬件要求来
  • aistudio上的GPU环境,目前只有A100 40G满足CUDA>=11.2要求
#安装FastDeploy-GPU版本
!pip install fastdeploy-gpu-python -f https://www.paddlepaddle.org.cn/whl/fastdeploy.html
# 准备MODNet模型和推理示例代码
# 推理示例代码
!git clone https://github.com/PaddlePaddle/FastDeploy.git
%cd FastDeploy/examples/vision/matting/modnet/python/
# 下载提前转换好的推理模型和图像
# 注意:测试图像目前放在github上,wget有一些慢,如果自己有测试图像,可以选择跳过。
!wget https://bj.bcebos.com/paddlehub/fastdeploy/modnet_photographic_portrait_matting.onnx
!wget https://raw.githubusercontent.com/DefTruth/lite.ai.toolkit/main/examples/lite/resources/test_lite_matting_input.jpg
# GPU 推理预测,输出结果保存在FastDeploy/examples/vision/matting/modnet/python/visualized_result.jpg图像中
!python infer.py --model modnet_photographic_portrait_matting.onnx --image test_lite_matting_input.jpg --device gpu


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
7月前
|
消息中间件 存储 NoSQL
离线与实时数据开发方案
离线与实时数据开发方案
129 0
|
5月前
|
存储 数据可视化 数据挖掘
实时数据分析系统的构建与优化
【7月更文挑战第29天】实时数据分析系统的构建与优化是一个复杂而细致的过程,需要从需求分析、数据源确定、数据采集与传输、数据处理与分析、数据存储、数据可视化、系统部署与配置、监控与优化等多个方面进行综合考虑。通过选择合适的技术栈和优化策略,可以构建出高效、稳定的实时数据分析系统,为企业决策提供强有力的支持。
|
6月前
|
机器学习/深度学习 边缘计算 测试技术
MLOps模型部署的三种策略:批处理、实时、边缘计算
机器学习运维(MLOps)是一组用于自动化和简化机器学习(ML)工作流程和部署的实践。所选择的部署策略可以显著影响系统的性能和效用。所以需要根据用例和需求,采用不同的部署策略。在这篇文章中,我们将探讨三种常见的模型部署策略:批处理、实时和边缘计算。
120 4
|
4月前
|
存储 JavaScript 前端开发
ShareDB:构建实时应用从未如此简单
ShareDB:构建实时应用从未如此简单
102 0
|
7月前
|
机器学习/深度学习 自动驾驶 搜索推荐
大模型技术的端侧部署
【1月更文挑战第14天】大模型技术的端侧部署
652 4
大模型技术的端侧部署
|
机器学习/深度学习 存储 分布式计算
【王喆-推荐系统】线上服务篇-(task5)部署离线模型
(1)业界主流的模型服务方法有 4 种,分别是预存推荐结果或 Embeding 结果、预训练 Embeding+ 轻量级线上模型、利用 PMML 转换和部署模型以及 TensorFlow Serving。
1046 0
【王喆-推荐系统】线上服务篇-(task5)部署离线模型
|
机器学习/深度学习
基于分布式平台的机器学习模型训练以及上线部署方案总结
基于分布式平台的机器学习模型训练以及上线部署方案总结
561 0
|
存储 人工智能 运维
多模态流式 AI 编排平台,大规模减少新应用开发成本
多模态流式 AI 编排平台,大规模减少新应用开发成本
736 0
|
存储 OLAP 调度
数仓模型(模型优化与指标验证)
数仓模型(模型优化与指标验证)
数仓模型(模型优化与指标验证)
|
机器学习/深度学习 人工智能 分布式计算
离线实时一体化新能力解读| 学习笔记
快速学习离线实时一体化新能力解读
863 0
离线实时一体化新能力解读| 学习笔记