开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink ml中,经过训练后将模型文件保存到本地,现在可以通过什么方式将本地的模型发布为在线服务?

flink ml中,经过训练后将模型文件保存到本地,
现在大致可以通过怎样的方式(技术),将本地的模型发布为在线服务,进行预测,在通过kafka再将消息发送出去?
(数据接收和发送采用的kafka)

展开
收起
三分钟热度的鱼 2023-09-12 19:17:00 101 0
1 条回答
写回答
取消 提交回答
  • 有两种方式可以将本地的模型发布为在线服务:

    通过Flink ML Server
    Flink ML Server是一个分布式模型服务器,它可以部署在Flink集群上,负责管理模型的生命周期,包括模型的训练、预测、部署和版本管理。使用Flink ML Server发布模型,只需要将模型文件上传到Flink ML Server的模型仓库即可。

    通过Flink Serving
    Flink Serving是一个轻量级的模型服务器,它可以部署在Flink集群上,也可以部署在单机上。使用Flink Serving发布模型,只需要将模型文件部署到Flink Serving的模型仓库即可。

    以下是使用Flink ML Server发布模型的步骤:

    在Flink集群上创建一个Flink ML Server。
    将模型文件上传到Flink ML Server的模型仓库。
    在Flink ML Server上创建一个模型管理任务,该任务负责管理模型的生命周期。
    使用Flink ML Server提供的REST API调用模型进行预测。
    以下是使用Flink Serving发布模型的步骤:

    在Flink集群上创建一个Flink Serving。
    将模型文件部署到Flink Serving的模型仓库。
    在Flink Serving上创建一个模型管理任务,该任务负责管理模型的生命周期。
    使用Flink Serving提供的REST API调用模型进行预测。

    2023-10-20 15:38:34
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Phoenix在客服系统的实践 立即下载
    # Apache Spark系列技术直播# 第八讲 【 微软Azure平台利用Intel Analytics Zoo构建AI客服支持实践 】 立即下载
    客服领域的数据智能实践 立即下载