MLOps模型部署的三种策略:批处理、实时、边缘计算

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 机器学习运维(MLOps)是一组用于自动化和简化机器学习(ML)工作流程和部署的实践。所选择的部署策略可以显著影响系统的性能和效用。所以需要根据用例和需求,采用不同的部署策略。在这篇文章中,我们将探讨三种常见的模型部署策略:批处理、实时和边缘计算。

机器学习运维(MLOps)是一组用于自动化和简化机器学习(ML)工作流程和部署的实践。所选择的部署策略可以显著影响系统的性能和效用。所以需要根据用例和需求,采用不同的部署策略。在这篇文章中,我们将探讨三种常见的模型部署策略:批处理、实时和边缘计算。

批处理

批处理部署适合于不需要实时决策的场景,主要需要在指定的时间间隔处理大量数据。模型不是不断更新或对新数据作出反应,而是在一段时间内收集的一批数据上运行。该方法涉及在预定时间处理大块数据。常见的用例包括夜间风险评估、客户细分或预测性维护等。这种方法非常适合于实时洞察不重要的应用程序。

优点:

批处理可以安排在非高峰时间,优化计算资源和降低成本。与实时系统相比,更容易实现和管理,因为它不需要持续的数据摄取和即时响应能力。

能够处理大型数据集,使其成为数据仓库、报告和离线分析等应用程序的理想选择。

缺点:

数据收集和结果之间存在显著延迟,可能不适用于时间敏感的应用程序。

用例:

欺诈检测:通过分析历史数据来识别欺诈交易。

预测性维护:根据收集数据中观察到的模式来安排维护任务。

市场分析:分析历史销售数据,从中获得见解和趋势。

示例:

例如我们想要分析电子商务平台的客户评论的情绪。使用预训练的情感分析模型,并定期将其应用于一批评论。

 import pandas as pd
 from transformers import pipeline

 # Load pre-trained sentiment analysis model
 sentiment_pipeline = pipeline("text-classification", model="distilbert-base-uncased-finetuned-sst-2-english")

 # Load customer reviews data
 reviews_data = pd.read_csv("customer_reviews.csv")

 # Perform sentiment analysis in batches
 batch_size = 1000
 for i in range(0, len(reviews_data), batch_size):
     batch_reviews = reviews_data["review_text"][i:i+batch_size].tolist()
     batch_sentiments = sentiment_pipeline(batch_reviews)

     # Process and store batch results
     for review, sentiment in zip(batch_reviews, batch_sentiments):
         print(f"Review: {review}\nSentiment: {sentiment['label']}\n")

我们从CSV文件中读取客户评论数据,并以1000条为一批处理这些评论。对于每个批次,我们使用情感分析流程来预测每个评论的情感(积极或消极),然后根据需要处理和存储结果。

实际的输出将取决于customer_reviews.csv文件的内容和预训练的情感分析模型的性能。

实时处理

实时部署在数据到达时立即对其进行处理,从而实现即时操作。这种方法对于需要实时数据处理和决策的应用程序是必不可少的。实时部署在处理数据并几乎即时提供输出时,适用于需要立即响应的应用程序,如欺诈检测、动态定价和实时个性化等。

优点:

提供即时反馈,对时间敏感的应用程序至关重要,支持在毫秒到秒之间做出决策。提供动态和响应的交互,支持与最终用户直接交互的应用程序,提供无可感知延迟的响应,可以提高用户粘性。能够快速响应新出现的趋势或问题,提高运营效率和风险管理。

缺点:

需要强大且可扩展的基础设施来处理可能的高吞吐量和低延迟需求。并且确保运行时间和性能可能既具挑战性又成本高昂。

用例:

客户支持:聊天机器人和虚拟助手为用户查询提供即时响应。

金融交易:基于实时市场数据做出瞬间决策的算法交易系统。

智慧城市:利用实时数据进行实时交通管理和公共安全监控。

示例:

我们希望对金融交易执行实时欺诈检测,需要部署一个预先训练的欺诈检测模型,并将其公开为web服务。

 import tensorflow as tf
 from tensorflow.keras.models import load_model
 import numpy as np
 from flask import Flask, request, jsonify

 # Load pre-trained fraud detection model
 model = load_model("fraud_detection_model.h5")

 # Create Flask app
 app = Flask(__name__)

 @app.route('/detect_fraud', methods=['POST'])
 def detect_fraud():
     data = request.get_json()
     transaction_data = np.array(data['transaction_data'])
     prediction = model.predict(transaction_data.reshape(1, -1))
     is_fraud = bool(prediction[0][0])
     return jsonify({'is_fraud': is_fraud})

 if __name__ == '__main__':
     app.run(host='0.0.0.0', port=8080)

比如使用TensorFlow加载一个预训练的欺诈检测模型。然后我们创建一个Flask web应用程序,并定义一个endpoint /detect_fraud,它接受包含交易细节的JSON数据。对于每个传入请求,数据经过预处理等流程,输入模型并返回一个JSON响应,判断这条数据是否具有欺诈性。

为了增加服务的响应速度,一般情况下都是使用,使用Docker这样的容器化工具,并将容器部署到云平台或专用服务器上,并且可以进行自动化的资源调度和扩展。

边缘计算

边缘部署涉及在网络边缘的设备上运行机器学习模型,更接近数据生成的位置。这种方法在本地处理数据而不是将数据发送到集中式服务器来减少延迟和带宽使用。这种方法用于在将数据发送到中心服务器太慢或过于敏感的情况下,如自动驾驶汽车、智能摄像头等。

优点:

在本地处理数据,减少了向中心服务器回传数据的需要,节省了带宽,降低了成本。。通过在源附近处理数据来最大限度地减少延迟,非常适合需要快速响应时间的应用程序。

独立于网络连接运行,即使在远程或不稳定的环境中也能确保持续的功能。并且敏感数据在设备上存储,最小化暴露和合规风险。

缺点:

边缘设备的处理能力通常低于服务器环境,这可能限制了部署模型的复杂性。并且在众多边缘设备上部署和更新模型可能在技术上具有挑战性的,尤其是版本的管理。

用例:

工业物联网:对制造工厂的机械进行实时监控。

医疗保健:可穿戴设备分析健康指标并向用户提供即时反馈。

自动驾驶汽车:车载传感器数据处理,用于实时导航和决策。

我们以最简单的在移动设备上执行实时对象检测作为示例。使用TensorFlow Lite框架在Android设备上优化和部署预训练的对象检测模型。

 import tflite_runtime.interpreter as tflite
 import cv2
 import numpy as np

 # Load TensorFlow Lite model
 interpreter = tflite.Interpreter(model_path="object_detection_model.tflite")
 interpreter.allocate_tensors()

 # Get input and output tensors
 input_details = interpreter.get_input_details()
 output_details = interpreter.get_output_details()

 # Function to perform object detection on an image
 def detect_objects(image):
     # Preprocess input image
     input_data = preprocess_image(image)

     # Set input tensor
     interpreter.set_tensor(input_details[0]['index'], input_data)

     # Run inference
     interpreter.invoke()

     # Get output tensor
     output_data = interpreter.get_tensor(output_details[0]['index'])

     # Postprocess output and return detected objects
     return postprocess_output(output_data)

 # Main loop for capturing and processing camera frames
 cap = cv2.VideoCapture(0)
 while True:
     ret, frame = cap.read()
     if ret:
         objects = detect_objects(frame)

         # Draw bounding boxes and labels on the frame
         for obj in objects:
             cv2.rectangle(frame, (obj['bbox'][0], obj['bbox'][1]), (obj['bbox'][2], obj['bbox'][3]), (0, 255, 0), 2)
             cv2.putText(frame, obj['class'], (obj['bbox'][0], obj['bbox'][1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (36, 255, 12), 2)

         cv2.imshow('Object Detection', frame)
     if cv2.waitKey(1) & 0xFF == ord('q'):
         break

 cap.release()
 cv2.destroyAllWindows()

以TensorFlow Lite格式加载一个预训练的对象检测模型,模型针对移动和嵌入式设备进行了优化。

在主循环中,不断地从设备的相机中捕获帧,将它们传递给detect_objects函数,并为检测到的对象在帧上绘制边界框和标签。处理后的帧然后显示在设备的屏幕上。边框将以绿色绘制,对象标签将显示在每个边框的左上角。

这些代码可以使用各自的TensorFlow Lite api和库集成到Android或iOS应用程序中。

选择正确的部署策略

选择正确的机器学习模型部署策略是确保高效性和成本效益的关键。以下是一些决定部署策略时需要考虑的主要因素:

1. 响应时间需求

  • 实时部署:如果应用程序需要即时反馈,如在线推荐系统、欺诈检测或自动交易系统。
  • 批处理部署:如果处理的任务可以容忍延迟,例如数据仓库的夜间批量处理、大规模报告生成。

2. 数据隐私和安全性

  • 边缘部署:当数据隐私是一个重要因素,或者法规要求数据不得离开本地设备时,边缘部署是理想选择。
  • 中心化部署:如果数据的隐私性较低或可以通过安全措施在云端处理,则可以选择中心化部署。

3. 可用资源和基础设施

  • 资源有限的环境:边缘设备通常计算能力有限,适合运行简化或轻量级的模型。
  • 资源丰富的环境:具有强大计算资源的云环境适合实时或大规模批处理部署。

4. 成本考虑

  • 成本敏感:批处理可以减少对实时计算资源的需求,从而降低成本。
  • 投资回报:实时系统虽然成本高,但可能因响应速度快而带来更高的投资回报。

5. 维护和可扩展性

  • 简单维护:批处理系统相对容易维护,因为它们的工作负载是预测的。
  • 需要高可扩展性:实时系统需要能够应对突发的高流量,需要更复杂的管理和自动扩展能力。

6. 用户体验

  • 直接与用户交互:需要即时响应来提升用户体验的应用,如移动应用中的个性化功能,更适合实时部罗。
  • 后台处理:用户不直接感受到处理延迟的场景,如数据分析和报告,批处理更为合适。

结合上述因素,你可以根据具体的应用场景和业务需求来选择最适合的部署策略。这有助于优化性能,控制成本,并提高整体效率。。

总结

了解批处理、实时和边缘部署策略的区别和应用程序是优化MLOps的基础。每种方法都提供了针对特定用例量身定制的独特优势,通过评估应用程序的需求和约束,可以选择最符合目标的部署策略,为成功的AI集成和利用铺平道路。

https://avoid.overfit.cn/post/6740ab96ae344c0ca8199e603f15cb37

作者:Tech & Tales

目录
相关文章
|
4月前
|
边缘计算 Kubernetes Cloud Native
边缘计算问题之根据请求响应的时延要求来部署业务应用如何解决
边缘计算问题之根据请求响应的时延要求来部署业务应用如何解决
64 4
|
4月前
|
机器学习/深度学习 边缘计算 PyTorch
PyTorch 与边缘计算:将深度学习模型部署到嵌入式设备
【8月更文第29天】随着物联网技术的发展,越来越多的数据处理任务开始在边缘设备上执行,以减少网络延迟、降低带宽成本并提高隐私保护水平。PyTorch 是一个广泛使用的深度学习框架,它不仅支持高效的模型训练,还提供了多种工具帮助开发者将模型部署到边缘设备。本文将探讨如何将PyTorch模型高效地部署到嵌入式设备上,并通过一个具体的示例来展示整个流程。
783 1
|
4月前
|
存储 边缘计算 安全
边缘计算设备的设计与部署技术探索
【8月更文挑战第1天】边缘计算设备的设计与部署是一个复杂而系统的工程,需要综合考虑多个方面的因素。通过制定全面的战略规划、选择合适的技术和设备、设计合理的网络架构、实施有效的安全策略以及定期管理维护等措施,可以确保边缘计算设备的稳定运行和高效应用。随着物联网和云计算技术的不断发展,边缘计算将在更多领域展现出其独特的优势和潜力。
69 10
|
机器学习/深度学习 存储 人工智能
边缘计算 | 在移动设备上部署深度学习模型的思路与注意点 ⛵
本文介绍AI模型适用于小型本地设备上的方法技术:压缩模型参数量,设计更小的模型结构,知识蒸馏,调整数据格式,数据复用等,并介绍移动小处理设备的类型、适用移动设备的模型框架等。
2555 1
边缘计算 | 在移动设备上部署深度学习模型的思路与注意点 ⛵
|
边缘计算 运维 Kubernetes
更灵活的边缘云原生运维:OpenYurt 单元化部署新增 Patch 特性
在正文开始之前,我们先回顾一下单元化部署的概念和设计理念。在边缘计算场景下,计算节点具有很明显的地域分布属性,相同的应用可能需要部署在不同地域下的计算节点上。
更灵活的边缘云原生运维:OpenYurt 单元化部署新增 Patch 特性
|
存储 人工智能 边缘计算
|
1月前
|
边缘计算 运维 Cloud Native
阿里云基于云原生的大规模云边协同关键技术及应用荣获浙江省科学技术进步一等奖
11月22日, 2023年度浙江省科学技术奖获奖成果公布,阿里云与浙江大学、支付宝、谐云科技联合完成的基于云原生的大规模云边协同关键技术及应用获得浙江省科学技术进步一等奖。
|
2月前
|
边缘计算 人工智能 安全
阿里云边缘云连续四年蝉联第一
全球领先的IT市场研究和咨询公司IDC发布《中国边缘云市场跟踪研究,2023H2》报告,中国边缘公有云服务市场阿里云连续四年蝉联第一。
|
7月前
|
存储 人工智能 搜索推荐
阿里云佘俊泉:边缘云场景的探索与机遇
2024全球分布式云大会·北京站,阿里云演讲《创新涌现,边缘云场景的探索与机遇》
159 8
阿里云佘俊泉:边缘云场景的探索与机遇