机器学习PAI的 deeprec 有自己的serving方式么? 还是直接用tf serving就可以跑?
机器学习PAI的DeepRec模块没有自己独立的serving方式,它建议使用TensorFlow Serving来进行模型的部署和Serving。
TensorFlow Serving是一个用于部署经过训练的TensorFlow模型的高性能系统。它提供了一个灵活且可扩展的架构,可以轻松地将训练好的模型部署为可用的API服务。
你可以使用TensorFlow Serving来加载并提供DeepRec模型的推理服务。首先,你需要将DeepRec模型保存为TensorFlow SavedModel格式,然后通过TensorFlow Serving来加载和部署该模型。
TensorFlow Serving支持多种方式进行模型的部署,例如通过RESTful API、gRPC接口或使用Docker容器。你可以根据自己的需求选择适合的方式来进行模型的Serving。
要注意的是,当使用TensorFlow Serving时,你需要确保在模型训练和导出过程中与TensorFlow Serving兼容的版本和配置。
我们也提供了Inference的processor 。具体参考:https://deeprec.readthedocs.io/zh/latest/Processor.html 此回答整理自钉群“DeepRec用户群”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。