LabVIEW+OpenVINO在CPU上部署新冠肺炎检测模型实战(含源码)

简介: LabVIEW+OpenVINO在CPU上部署新冠肺炎检测模型

前言

之前博客:【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来给大家介绍了在LabVIEW上使用openvino加速推理,在CPU上也能感受丝滑的实时物体识别。那我们今天就一起来看一下如何使用LabVIEW+OpenVINO在CPU上部署新冠肺炎CT图像病害分割,本次实战模型主要是来自大佬:翼达口香糖,博客:https://blog.csdn.net/weixin_47567401/article/details/122809410

一、LabVIEW视觉工具包下载与配置

1、视觉工具包的下载安装

可在如下链接中下载OpenVINO版工具包:https://download.csdn.net/download/virobotics/18434228

说明:
安装前请先阅读readme.txt
工具包已经更新,为更方便各位使用,最新版工具包中cpu版与openvino版合二为一,统称为CPU版;
如果想要使用openvino加速,请务必安装OpenVINO toolkit;
若未安装OpenVINO toolkit,则使用readNetFromOptimizer.vi会报错,其他则不会有影响。

安装方式可参考:LabVIEW AI视觉工具包(非NI Vision)下载与安装教程中CPU用户的安装。

2、OpenVINO toolkit下载安装

下载地址:英特尔® Distribution of OpenVINO™ 工具套件
1)点击Dev Tools

image.png

2)选择版本,选择如下版本,并DownLoad:

image.png

3)下载后,运行安装即可!(建议安装到默认路径)
image.png

4)可以选择安装路径,具体安装可以参考官方文档:https://docs.openvino.ai/cn/latest/openvino_docs_install_guides_installing_openvino_windows.html

5)安装完成后,请记得配置环境变量,即在电脑的环境变量-->系统变量-->path种添加如下变量

image.png

二、模型获取

openvino工作流程,和其他的部署工具都差不多,训练好模型,解析成openvino专用的.xml和.bin,随后传入Inference Engine中进行推理。本实战中的模型来自:https://blog.csdn.net/weixin_47567401/article/details/122809410,你可以在这里下载到模型:[下载模型链接](https://github.com/openvinotoolkit/openvino_notebooks/tree/main/notebooks/210-ct-scan-live-inference/pretrained_model)

三、语义分割之Unet

1、语义分割在医疗影像上的应用

随着人工智能的崛起,将神经网络与医疗诊断结合也成为研究热点,智能医疗研究逐渐成熟。在智能医疗领域,语义分割主要应用于肿瘤图像分割,龋齿诊断等。(下图分别是龋齿诊断,头部CT扫描紧急护理诊断辅助和肺癌诊断辅助)
image.png

image.png

2、Unet简介

U-Net 起源于医疗图像分割,整个网络是标准的encoder-decoder网络,特点是参数少,计算快,应用性强,对于一般场景适应度很高。原始U-Net的结构如右图所示,由于网络整体结构类似于大写的英文字母U,故得名U-net。左侧可视为一个编码器,右侧可视为一个解码器。编码器有四个子模块,每个子模块包含两个卷积层,每个子模块之后通过max pool进行下采样。由于卷积使用的是valid模式,故实际输出比输入图像小一些。具体来说,后一个子模块的分辨率=(前一个子模块的分辨率-4)/2。U-Net使用了Overlap-tile 策略用于补全输入图像的上下信息,使得任意大小的输入图像都可获得无缝分割。同样解码器也包含四个子模块,分辨率通过上采样操作依次上升,直到与输入图像的分辨率基本一致。该网络还使用了跳跃连接,以拼接的方式将解码器和编码器中相同分辨率的feature map进行特征融合,帮助解码器更好地恢复目标的细节。
image.png

四、LabVIEW+OpenVINO在CPU上部署新冠肺炎检测模型(covid_main.vi )

运行本项目,请务必安装新版工具包及OpenVINO toolkit,否则会报错无法运行

1、实现过程

  • dnn模块调用IR模型(模型优化器)
  • 设置计算后台与计算目标设备(推理引擎加速)
  • 读取待检测的影像图片
  • 图像预处理(blobFromImage)
  • 推理
  • 后处理
  • 绘制分割出的感染区域
  • 添加logo和标题,并将其保存为MP4
    image.png

  • 后处理中

  • 先将mat reshape 成512*512
  • 进行二值化阈值处理
  • 寻找轮廓
  • 绘制轮廓
  • 在指定地方绘制logo
  • 将其在前面板显示并保存为MP4,保存为MP4之前记得进行颜色空间转换。
    image.png

2、程序源码

image.png

image.png

3、推理运行

请将下载的项目放在不包含中文的路径下,打开covid_main.vi,修改检测影像路径为实际路径,运行检测
image.png

有如下四个文件夹可选
image.png

注意:readNetFromModelOptimizer.vi中IR模型路径不可以包含中文

4、运行效果video.gif

五、项目源码及模型下载

可关注微信公众号:VIRobotics,回复:新冠肺炎检测实战,获取项目源码

附加说明

操作系统:Windows10
python:3.6及以上
LabVIEW:2018及以上 64位版本
视觉工具包:techforce_lib_opencv_cpu-1.0.0.73.vip
OpenVINO:2021.4.2

总结

以上就是今天要给大家分享的内容。
如您想要探讨更多关于LabVIEW与人工智能技术,欢迎加入我们的技术交流群:705637299。

LabVIEW图像分割项目相关
《使用LabVIEW实现基于pytorch的DeepLabv3图像语义分割》
《手把手教你使用LabVIEW实现Mask R-CNN图像实例分割》

如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏

目录
相关文章
|
1月前
|
文字识别 编译器 C++
win10 PaddleOCR c++ cpu部署
win10 PaddleOCR c++ cpu部署
28 0
|
2月前
|
并行计算 Linux 计算机视觉
DeepFace【部署 04】轻量级人脸识别和面部属性分析框架deepface使用Docker部署CPU+GPU两个版本及cuDNN安装
DeepFace【部署 04】轻量级人脸识别和面部属性分析框架deepface使用Docker部署CPU+GPU两个版本及cuDNN安装
94 0
|
2月前
|
存储 Linux Docker
Docker【部署 04】Docker Compose下载安装及实例Milvus Docker compose(CPU)使用说明分享
Docker【部署 04】Docker Compose下载安装及实例Milvus Docker compose(CPU)使用说明分享
196 0
|
2月前
|
XML Java API
Android App开发之创建JNI接口获取CPU指令集讲解及实战(附源码 简单易懂)
Android App开发之创建JNI接口获取CPU指令集讲解及实战(附源码 简单易懂)
24 0
|
2月前
|
缓存 Java 知识图谱
1.什么是CPU多级缓存模型?
1.什么是CPU多级缓存模型?
43 0
1.什么是CPU多级缓存模型?
|
3月前
|
NoSQL Shell Linux
跨cpu架构部署容器技术点:怎么将容器启动时的1号进程挂载到systemctl
--privileged=true:是Docker中的一个参数,用于授予容器的特权权限。当一个容器被设置为特权容器时,它将拥有与主机操作系统相同的权限,可以执行一些高级操作,如访问主机设备、加载内核模块等。
34 0
|
3月前
|
存储 Linux Docker
跨cpu架构部署容器技术点:怎样修改Linux 的内核版本
在使用Docker 进行跨平台部署之后,我们还可以尝试进行跨架构部署。 从X86 架构上移植到 aarch64 上。
150 0
|
3月前
|
Oracle 关系型数据库 Linux
解决在linux服务器上部署定时自动查找cpu,内存,磁盘使用量,并将查询结果写入数据库的脚本,只能手动运行实现插库操作
问题描述:将脚本名命名为mortior.sh(以下简称mo),手动执行脚本后查询数据库,表中有相应的信息,放入自动执行队列中,脚本被执行,但是查询数据库,并没有新增数据。
34 0
|
4月前
|
人工智能 并行计算 openCL
魔搭+Xinference 平台:CPU,GPU,Mac-M1多端大模型部署
随着 Llama2 的开源,以及通义千问、百川、智谱等国内大模型的问世,很多用户有了本地部署去尝试大模型的需求,然而硬件的需求阻碍了很多人的尝试,并不是所有人都拥有一块英伟达显卡的,所以 Llama2 问世不久,大神 Andrej Karpathy 的一个 weekend project 爆火——llama2.c。
魔搭+Xinference 平台:CPU,GPU,Mac-M1多端大模型部署
|
5月前
|
安全 Windows
一次简单的服务器 cpu 占用率高的快速排查实战
一次简单的服务器 cpu 占用率高的快速排查实战

热门文章

最新文章

相关产品