使用 Databricks 和 MLflow 进行机器学习模型训练和部署的应用实践| 学习笔记(一)

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 快速学习使用 Databricks 和 MLflow 进行机器学习模型训练和部署的应用实践

开发者学堂课程【Databricks数据洞察公开课使用 Databricks 和 MLflow 进行机器学习模型训练和部署的应用实践】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/1058/detail/15565


使用 Databricks 和 MLflow 进行机器学习模型训练和部署的应用实践

 

内容介绍:

一、    学习工作流中的一些痛点问题

二、    Mlflow 的核心功能

三、    Mlflow + DDI 环境介绍

 

这次课程中会介绍如何使用 Databricks Datainsight Mlflow 进行机器学习模型的训练和部署,首先会对机器学习工作中的痛点做一个简单的总结,然后介绍 Mlflow 的主要组件以及这些组件的功能,接着会介绍如何使用 DDIMlflow 来搭建机器学习平台,以管理机器学习的一个生命周期,最后会一个简单的案例来演示 DDI Mlflow ,实现从数据准备模型训练到模型部署和测试的整个的流程。


一、学习工作流中的一些痛点问题


首先,是很难对机器学习的时间进行追踪,本次课程的学习算法中有大量的配置参数,在做机器学习实验的时候,其实很难追踪到哪些参数,哪个版本的代码,以及哪个版本的数据会产生特定的结果,其次是进行机器实验的结果是很难复现的,因为没有标准的方式来打包环境,即使是相同的代码,相同参数以及相同的数据可能也很难复现实验结果。

因为实验结果还取决于采用的代码库,重要的是没有一个标准的方式来管理模型的生命周期,一个算法团队通常会创建大量的模型,这些模型其实是很需要一个中央平台来进行管理的,特别是模型的版本所属阶段以及注释这些元数据信息,和这个版本的模型是由什么代码、数据和参数产生的,以及这个模型的性能指标是怎样的,重要的就是没有一个统一的方式来部署这些模型。


Mlflow 的核心功能


Mlflow 就是为了解决机器学习工作流中的上述痛点问题而生的

Mlflow 可以通过简单的 API 实现实验参数追踪、环境打包、模型管理及模型部署的整个流程。


1.Mlflow Tracking

要介绍的第一个 Mlflow 的核心功能就是 Mlflow Tracking

Mlflow Tracking 去追踪机器学习的实验参数、模型的性能指标以及模型的各种文件,在做机器学习实验的时候,通常需要记录一些参数配置以及模型的性能指标,那么 Mlflow 可以帮助用户免去手动记录的操作,并且 Mlflow 不仅仅支持记录参数还能记录任意的文件,包括了模型、图片、源码等等。

image.png

从上图的代码可以看到,我们使用 Mlflowstart-run 可以开启一次实验,然后可以使用 log-param 去记录模型的参数配置,接着可以使用 log-metrics 记录下模型的性能指标,这里的性能指标指标,不但包括标量的性能指标,而且也可以去记录一些向量的性能指标,最后,可以使用 log-model 记录训练好的模型以及使用 log-artifact 去记录任何想要记录的文件,比如上图记录的就是源码。

 

2.Mlflow Project

Mlflow 会基于代码规约来打包训练代码,并且指定执行环境进行入口,以及参而且这种规范的打包方式,更加方便代码的共享以及平台的迁移。

image.png

比如在上图 Mlflow -training Project 里包含有有两个很重要的文件,一个是conda.yaml 文件,一个是 MLProject文件,在conda.yaml 这个文件中指定了project 的一个运行环境,包括了其所有的依赖的代码库以及这些代码库的一个版本。

 image.png

如上图所示,在 MLproject 里,指定了运行的环境,也就是conda的环境,然后,还指定了运行的入口,就是怎么把这个Project run起来。

mflow run\

-no-conda—experiment-namewine-quality\http://github.com/Mlflow/Mlflow-example.git\-P alpha=0.5

如以上代码所示,而在这个入口信息里,又有相应的一个运行参数,这里包含了 alpha 还有 l1-ratio 这两个参数,除此之外, Mlflow 还提供了命令行工具来方便的运行 Mlflow project

比如已经打包好了一个Project ,并且把这个 Project 已经上传到了 git 的仓库里,上传到了 Mlflow-example.git  这个仓库中,只需要执行 Mlflow run ,就可以去方便的去执行这个 Project - p 是去传入 alpha 的一个参数。


3.  Mlflow Models

它支持以统一的方式去打包,记录和部署多种算法框架的模型。

image.png

在训练完模型后,可以使用去Mlflowlog Models 把这一模型给记录下来,然后 Mlflow 自动的把这个模型给存储起来,可以存储到本地或者是存储到 OSS 上,我们在 Mlflow 的外部 UI 上就可以看到这个模型与代码版本参数和metric 之间的关系,并且还记录了这一模型的一个存储的路径。

如上图,最后,可以使用 Mlflow 提供的 API 去部署这个模型,使用 Mlflow models serve 把这个模型部署起来,之后就可以使用 REST API 去调用这个模型得到一个预测的结果。


4. Model Registry

如下图, Mlflow 不但会存储模型,而且还提供了一个 Web UI 去管理这些模型,在这个 Web UI 的界面上它展示了模型的一个版本、模型所处的阶段。

image.png

在模型的详情页,如上图,它还显示了模型的描述以及模型的标签。

模型的标签可以用来检索和标记一个模型,还有模型的schema ,模型的 schema 可以表示那个模型的一个输入和输出的一个格式,此外 Mlflow 他还建立了模型以及运行环境代码和参数之间的一个关系,也就是模型的血缘。

Mlflow 这四个个核心功能,很好的解决了机器学习工作流中的一些痛点问题。

首先是 Mlflow Tracking 很好地解决了,机器学习实验难以追踪的一个问题;Mlflow Project 解决了机器学习工作流中,没有标准的方式来打包环境,实验结果,难以复现的问题; Mlflow Models Model Registry解决的是没有标准的方式来管理模型的生命周期的问题。

 

三、 Mlflow + DDI环境介绍


使用 Mlflow DDI 搭建机器学习平台与管理机器学习的生命周期,在以下架构图中可以发现主要组件有DDI 集群、OSS ECS

image.png

DDI 集群中,用户会去做机器学习的训练,然后,用户需要启动一台 ECS来搭建 Mlflow Tracking Server 以提供一个 UI 界面,此外,还需要在 ECS 上安装 MySQL 去存储训练参数、性能和标签等元数据。

然后 OSS 是用作存储训练数据以及模型源码等等,部署的要点是首先需要去打通 DDI 集群到 ECS 的一个网络,要保证 DDI 集群和 ECS 之间能相互通信,其次,需要在 ECS 上安装 Mlflow-aliyunstore 的插件,以便于 ECS 将模型存储到 OSS 上,环境所需要的 DDI 集群, OSS Bucket 以及用作 MySQL ECS 环境都已经准备好了。

首先需要去打通 DDI 集群到 ECS 网络,然后在 DDI 的管控台数据源目录下,

选择添加,如下图所示。

image.png

然后选择 ECS 实例,并且填入名称,点击“下一步”即可打通数据源。

image.png

已经打通过了,就不重复去添加。

然后登录到作为 Mlflow Server ECS 上,首先下载 Anaconda

wget https://repo.anaconda.com/archive/Anaconda3-2021.05-Linux-x86_64.sh

image.png

下一步,去安装 Anaconda

bash ./Anaconda3-2021.05-Linux-x86_64.sh


相关实践学习
2分钟自动化部署人生模拟器
本场景将带你借助云效流水线Flow实现人生模拟器小游戏的自动化部署
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
13天前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
1月前
|
人工智能 调度 芯片
PAI训练服务:云上大模型训练新篇章
本文介绍了通用AI时代下的新训练方法及PAI平台的优化。随着大模型时代的到来,算力需求激增,硬件和网络通信成为瓶颈。PAI平台通过自动容错、3D健康检测等技术确保训练稳定性;通过资源配额、智能调度等提高性价比;并推出PAI-TorchAcc和PAI-ChatLearn两大引擎,分别实现高效训练加速和灵活的对齐训练,显著提升训练性能与效果。这些改进解决了大规模AI训练中的关键问题,提升了效率和稳定性。
|
12天前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
1938 9
阿里云PAI部署DeepSeek及调用
|
7天前
|
机器学习/深度学习 人工智能 开发者
DeepSeek服务器繁忙?拒绝稍后再试!基于阿里云PAI实现0代码一键部署DeepSeek-V3和DeepSeek-R1大模型
阿里云PAI平台支持零代码一键部署DeepSeek-V3和DeepSeek-R1大模型,用户可轻松实现从训练到部署再到推理的全流程。通过PAI Model Gallery,开发者只需简单几步即可完成模型部署,享受高效便捷的AI开发体验。具体步骤包括开通PAI服务、进入控制台选择模型、一键部署并获取调用信息。整个过程无需编写代码,极大简化了模型应用的门槛。
140 7
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
云上一键部署 DeepSeek-V3 模型,阿里云 PAI-Model Gallery 最佳实践
本文介绍了如何在阿里云 PAI 平台上一键部署 DeepSeek-V3 模型,通过这一过程,用户能够轻松地利用 DeepSeek-V3 模型进行实时交互和 API 推理,从而加速 AI 应用的开发和部署。
|
1月前
|
机器学习/深度学习 安全 PyTorch
FastAPI + ONNX 部署机器学习模型最佳实践
本文介绍了如何结合FastAPI和ONNX实现机器学习模型的高效部署。面对模型兼容性、性能瓶颈、服务稳定性和安全性等挑战,FastAPI与ONNX提供了高性能、易于开发维护、跨框架支持和活跃社区的优势。通过将模型转换为ONNX格式、构建FastAPI应用、进行性能优化及考虑安全性,可以简化部署流程,提升推理性能,确保服务的可靠性与安全性。最后,以手写数字识别模型为例,展示了完整的部署过程,帮助读者更好地理解和应用这些技术。
97 20
|
2月前
|
人工智能 JSON 算法
魔搭支持在阿里云人工智能平台PAI上进行模型训练、部署了!
现在,魔搭上的众多模型支持在阿里云人工智能平台PAI-Model Gallery上使用阿里云算力资源进行模型训练和部署啦!
|
3月前
|
人工智能 JSON 算法
Qwen2.5-Coder 系列模型在 PAI-QuickStart 的训练、评测、压缩及部署实践
阿里云的人工智能平台 PAI,作为一站式、 AI Native 的大模型与 AIGC 工程平台,为开发者和企业客户提供了 Qwen2.5-Coder 系列模型的全链路最佳实践。本文以Qwen2.5-Coder-32B为例,详细介绍在 PAI-QuickStart 完成 Qwen2.5-Coder 的训练、评测和快速部署。
Qwen2.5-Coder 系列模型在 PAI-QuickStart 的训练、评测、压缩及部署实践
|
1月前
|
并行计算 PyTorch 算法框架/工具
阿里云PAI-部署Qwen2-VL-72B
阿里云PAI-部署Qwen2-VL-72B踩坑实录
|
2月前
|
编解码 机器人 测试技术
技术实践 | 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型快速搭建专业领域知识问答机器人
Qwen2-VL是一款具备高级图像和视频理解能力的多模态模型,支持多种语言,适用于多模态应用开发。通过PAI和LLaMA Factory框架,用户可以轻松微调Qwen2-VL模型,快速构建文旅领域的知识问答机器人。本教程详细介绍了从模型部署、微调到对话测试的全过程,帮助开发者高效实现定制化多模态应用。

热门文章

最新文章

相关产品

  • 人工智能平台 PAI