手把手教学攻略:如何在Anolis OS上部署OpenVINO深度学习模型?

简介: Anolis OS 作为国内首个正式提供 OpenVINO 开发包和镜像的服务器端操作系统,推动国内 AI 推理生态和能力的升级。

近年人工智能的飞速发展离不开全球开源软件社区的共同努力。龙蜥社区是中国操作软件系统开源社区的领军者之一,发布了 12 款针对多种行业用户需求的操作系统商业版本。通过操作系统和 AI 框架的集成,更好的赋能 AI 开发者,更加方便快捷的进行行业 AI 应用的开发和部署,是龙蜥社区的重要目标。OpenVINO™ 是 Intel 发起的开源深度学习模型优化部署工具,几年来吸引了众多开源社区的合作和开发者共建。OpenVINO 和中国的开源操作系统社区合作,共同赋能 AI 开发者,更加方便快捷的开发和部署行业 AI 应用,是 OpenVINO 的重要目标。


龙蜥操作系统 Anolis OS 作为国内首个正式提供 OpenVINO 开发包和镜像的服务器端操作系统,推动国内 AI 推理生态和能力的升级。


目前 OpenVINO 已完成对于 Anolis OS 的适配,开发者可以利用 OpenVINO 工具套件在 Anolis OS 上部署以及加速深度学习模型的推理任务,目前该适配工作已通过龙蜥社区官方的兼容性认证,鉴于 OpenVINO 开源开放的特性,以及 Anolis OS 对于多硬件架构的支持,本次集成将构建一个完全自主的深度学习任务推理生态,完善人工智能上下游体系建设。


这里我们将演示如何基于 Anolis OS 23 docker 镜像 x86 平台上安装 OpenVINO,并运行深度学习模型推理任务。当然,您也可以在裸机上安装 Anolis OS,实现相同效果。

Anolis OS 安装镜像:

https://gitee.com/link?target=https%3A%2F%2Fmirrors.openanolis.cn%2Fanolis%2F23%2Fisos%2FGA%2Fx86_64%2FAnolisOS-23.1-x86_64-dvd.iso


1、拉取 docker 镜像并启动容器

# docker pull openanolis/anolisos:23
# docker run -it -v /srv/models/:/root/models \
--device=/dev/dri --ipc=host \
-e http_proxy=$http_proxy -e https_proxy=$https_proxy -e no_proxy=$no_proxy \
--name ov docker.io/openanolis/anolisos:23 bash

注意此处的 /srv/models 需要修改为本地宿主机路径,以便在容器内访问到外部文件或模型。同时, /dev/dri 为可访问的外部设备地址,如 GPU 等。


2、安装 GPU 驱动及图形计算库

为了在 Anolis OS 上安装 OpeenVINO 组件,首先启用 epao repo。执行如下命令,启用 epao repo。

# yum install -y anolis-epao-release

安装 x86 平台 GPU 驱动及图形计算库。

# yum install intel-gmmlib intel-gsc intel-igc-cm intel-igc-core intel-igc-opencl \
intel-level-zero-gpu intel-ocloc intel-opencl level-zero libmetee ocl-icd

安装第三方工具。

# yum install -y cmake gcc g++ wget

安装 clinfo 工具,查看当前设备中的 GPU 设备状态。

# yum install clinfo -y
# clinfo --list

(图/打印系统中GPU硬件)


3、安装 OpenVINO 组件

通过 yum list all | grep openvino 命令我们可以查看 epao repo 中所有的 openvino rpm 组件包,开发者可以根据自己的模型格式和部署硬件平台,选择合适的前后端组件进行安装。

(图/打印可安装的 OpenVINO 组件列表)


开发者可以通过以下命令安装最基本的 OpenVINO runtime 库,sample 组件以及 CPU 及 GPU plugin 等组件。

#wget https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.bin
#wget https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.xml

如果需要使用模型格式转化工具,或是直接读取第三方模型的格式的话,也可以安装指定的前端组件,例如 onnx 前端支持:

# yum install libopenvino-onnx-frontend


4、编译 OpenVINO 示例

当完成上述组件安装后,开发者可以通过 OpenVINO 自带的 C++ sample 示例,对安装进行验证。以下是容器中 sample 示例编译方式:

# cd /usr/share/openvino/samples/cpp/
# ./build_samples.sh


5、测试示例

完成sample示例编译后,我们可以 /root/openvino_cpp_samples_build/intel64/Release 目录下得到一系列基于 OpenVINO runtime 的可执行文件,我们可以运行其中的几个示例来确认各个组件是否能正常工作。

首先是 hello_query_device  设备查询示例,我们期望它可以打印当前环境中 OpenVINO 支持的所有硬件:

# cd /root/openvino_cpp_samples_build/intel64/Release
# ./hello_query_device

(图/打印OpenVINO所发现的系统硬件)


此外,我们可以用 benchmark_app 工具评估 CPU 及 GPU 的推理性能是否符合预期,这里我们需要提前下载用于测试的 OpenVINO IR 模型:

#wget https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.bin
#wget https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.xml

通过以下指令我们可以分别评估模型在 CPU 及 GPU 上运行的推理性能:

#./benchmark_app -m resnet50-binary-0001.xml  -niter 1 -d CPU  -hint latency

(图/CPU运行benchmark_app结果)


#./benchmark_app -m resnet50-binary-0001.xml  -niter 1 -d GPU  -hint latency

(图/GPU运行benchmark_app结果)


最后,我们对模型的推理结果进行验证,这里参考 hello_classification 示例的说明文档,输入一张车辆图片进行验证。

hello_classification 示例说明文档:

https://docs.openvino.ai/2024/learn-openvino/openvino-samples/hello-classification.html

(图/测试图片)

#wget https://storage.openvinotoolkit.org/data/test_data/images/car.bmp
#./hello_classification resnet50-binary-0001.xml coco.bmp CPU

(图/Anolis OS运行目标分类结果)


对比宿主机在 Ubuntu 操作系统上的运行结果几乎是一致的,这意味着在 Anolis OS 上运行 OpenVINO 推理模型不会对模型精度产生影响

(图/Ubuntu系统运行目标分类结果)


OpenVINO 在 2024 年,已经推出了 5 次版本更新,全面支持飞速发展的生成式AI,也会持续的和龙蜥开源社区进行更广泛的合作,共同推动 AI 的行业推广和落地。

附录:参考文档:

[1]. https://openanolis.cn/

[2]. https://docs.openvino.ai/

[3]. https://gitee.com/anolis/intel-openvino/blob/master/doc/samples.md

[4].https://docs.openvino.ai/2024/learn-openvino/openvino-samples/hello-classification.html


OpenVINO 简介

OpenVINO™ 是一款开源深度学习模型优化部署工具,它由 Intel 发起,几年来吸引了众多开源社区的合作和开发者共建。

OpenVINO™ 可以极大地提升多种深度学习模型任务在数据中心和边缘计算的推理性能,使部署变得简单和高效。使用场景覆盖生成式AI模型,大语言模型,多模态模型和基础 AI 模型的丰富应用。OpenVINO™ 支持多种硬件架构,包括英特尔 CPU,GPU 和 NPU 的硬件平台,以及 ARM 架构的 CPU。可以通过 OpenVINO 及其工具链部署 AI 推理及模型服务。同时,OpenVINO 也集成/兼容广大 AI 生态框架,包括 ONNX,pytorch2.0, huggingface 等。OpenVINO 对多种操作系统提供支持,并提供 C/C++,python,C# 等多种语言的 API。关于更多 OpenVINO 的详细信息,请参考官方文档: https://docs.openvino.ai/2024/index.html


Anolis OS 简介

龙蜥操作系统 Anolis OS 搭载了ANCK 版本的内核,性能和稳定性经过历年“双 11”历练,能为云上典型用户场景带来 40% 的综合性能提升,故障率降低 50%,兼容 Linux 生态,支持一键迁移,并提供全栈国密能力。

Anolis OS 23 是龙蜥社区推出的更安全、更稳定、更 AI 的操作系统,采用最通用的 Linux ANCK 6.6 内核,全面兼容国内外主流 CPU 架构,适配更新、更丰富的 AI 容器服务生态,在操作系统层面首次原生支持 AI 算力调用和应用。

—— 完 ——

相关文章
|
11天前
|
存储 人工智能 弹性计算
阿里云弹性计算_加速计算专场精华概览 | 2024云栖大会回顾
2024年9月19-21日,2024云栖大会在杭州云栖小镇举行,阿里云智能集团资深技术专家、异构计算产品技术负责人王超等多位产品、技术专家,共同带来了题为《AI Infra的前沿技术与应用实践》的专场session。本次专场重点介绍了阿里云AI Infra 产品架构与技术能力,及用户如何使用阿里云灵骏产品进行AI大模型开发、训练和应用。围绕当下大模型训练和推理的技术难点,专家们分享了如何在阿里云上实现稳定、高效、经济的大模型训练,并通过多个客户案例展示了云上大模型训练的显著优势。
|
15天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
6天前
|
并行计算 前端开发 物联网
全网首发!真·从0到1!万字长文带你入门Qwen2.5-Coder——介绍、体验、本地部署及简单微调
2024年11月12日,阿里云通义大模型团队正式开源通义千问代码模型全系列,包括6款Qwen2.5-Coder模型,每个规模包含Base和Instruct两个版本。其中32B尺寸的旗舰代码模型在多项基准评测中取得开源最佳成绩,成为全球最强开源代码模型,多项关键能力超越GPT-4o。Qwen2.5-Coder具备强大、多样和实用等优点,通过持续训练,结合源代码、文本代码混合数据及合成数据,显著提升了代码生成、推理和修复等核心任务的性能。此外,该模型还支持多种编程语言,并在人类偏好对齐方面表现出色。本文为周周的奇妙编程原创,阿里云社区首发,未经同意不得转载。
|
11天前
|
人工智能 运维 双11
2024阿里云双十一云资源购买指南(纯客观,无广)
2024年双十一,阿里云推出多项重磅优惠,特别针对新迁入云的企业和初创公司提供丰厚补贴。其中,36元一年的轻量应用服务器、1.95元/小时的16核60GB A10卡以及1元购域名等产品尤为值得关注。这些产品不仅价格亲民,还提供了丰富的功能和服务,非常适合个人开发者、学生及中小企业快速上手和部署应用。
|
7天前
|
人工智能 自然语言处理 前端开发
用通义灵码,从 0 开始打造一个完整APP,无需编程经验就可以完成
通义灵码携手科技博主@玺哥超carry 打造全网第一个完整的、面向普通人的自然语言编程教程。完全使用 AI,再配合简单易懂的方法,只要你会打字,就能真正做出一个完整的应用。本教程完全免费,而且为大家准备了 100 个降噪蓝牙耳机,送给前 100 个完成的粉丝。获奖的方式非常简单,只要你跟着教程完成第一课的内容就能获得。
|
1天前
|
云安全 存储 弹性计算
|
22天前
|
自然语言处理 数据可视化 前端开发
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
合合信息的智能文档处理“百宝箱”涵盖文档解析、向量化模型、测评工具等,解决了复杂文档解析、大模型问答幻觉、文档解析效果评估、知识库搭建、多语言文档翻译等问题。通过可视化解析工具 TextIn ParseX、向量化模型 acge-embedding 和文档解析测评工具 markdown_tester,百宝箱提升了文档处理的效率和精确度,适用于多种文档格式和语言环境,助力企业实现高效的信息管理和业务支持。
3966 5
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
|
11天前
|
算法 安全 网络安全
阿里云SSL证书双11精选,WoSign SSL国产证书优惠
2024阿里云11.11金秋云创季活动火热进行中,活动月期间(2024年11月01日至11月30日)通过折扣、叠加优惠券等多种方式,阿里云WoSign SSL证书实现优惠价格新低,DV SSL证书220元/年起,助力中小企业轻松实现HTTPS加密,保障数据传输安全。
534 3
阿里云SSL证书双11精选,WoSign SSL国产证书优惠
|
10天前
|
数据采集 人工智能 API
Qwen2.5-Coder深夜开源炸场,Prompt编程的时代来了!
通义千问团队开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列,致力于持续推动 Open Code LLMs 的发展。
|
18天前
|
安全 数据建模 网络安全
2024阿里云双11,WoSign SSL证书优惠券使用攻略
2024阿里云“11.11金秋云创季”活动主会场,阿里云用户通过完成个人或企业实名认证,可以领取不同额度的满减优惠券,叠加折扣优惠。用户购买WoSign SSL证书,如何叠加才能更加优惠呢?
999 3

热门文章

最新文章