机器学习PAI的 deeprec 有自己的serving方式么?

机器学习PAI的 deeprec 有自己的serving方式么? 还是直接用tf serving就可以跑?

展开
收起
三分钟热度的鱼 2023-07-04 19:31:32 111 分享 版权
2 条回答
写回答
取消 提交回答
  • 机器学习PAI的DeepRec模块没有自己独立的serving方式,它建议使用TensorFlow Serving来进行模型的部署和Serving。

    TensorFlow Serving是一个用于部署经过训练的TensorFlow模型的高性能系统。它提供了一个灵活且可扩展的架构,可以轻松地将训练好的模型部署为可用的API服务。

    你可以使用TensorFlow Serving来加载并提供DeepRec模型的推理服务。首先,你需要将DeepRec模型保存为TensorFlow SavedModel格式,然后通过TensorFlow Serving来加载和部署该模型。

    TensorFlow Serving支持多种方式进行模型的部署,例如通过RESTful API、gRPC接口或使用Docker容器。你可以根据自己的需求选择适合的方式来进行模型的Serving。

    要注意的是,当使用TensorFlow Serving时,你需要确保在模型训练和导出过程中与TensorFlow Serving兼容的版本和配置。

    2023-07-31 18:04:24
    赞同 展开评论
  • 我们也提供了Inference的processor 。具体参考:https://deeprec.readthedocs.io/zh/latest/Processor.html 此回答整理自钉群“DeepRec用户群”

    2023-07-04 20:57:40
    赞同 展开评论

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

还有其他疑问?
咨询AI助理