开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope有没PAI空间部署LLM API服务通过摩搭本地访问inference API?

ModelScope有没PAI空间部署LLM API服务通过摩搭本地访问inference API?

展开
收起
青城山下庄文杰 2023-08-06 08:44:32 104 0
2 条回答
写回答
取消 提交回答
  • 我们正在魔搭社区的模型服务中对接这样的方式,并准备上线中。希望下周可以支持。不知道能否赶得上您的时间。-此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-08-08 10:45:43
    赞同 展开评论 打赏
  • 北京阿里云ACE会长

    如果ModelScope提供了API服务并支持PAI空间部署,您可以通过在摩搭本地访问推理API来使用它。PAI空间部署通常涉及在您的本地环境中设置和运行ModelScope服务,以便您可以通过API与其进行通信。

    要了解有关ModelScope的API服务和PAI空间部署的详细信息,我建议您参阅ModelScope的官方文档、GitHub存储库或其他相关资源。这些资源通常提供有关如何配置、部署和使用ModelScope API服务的说明。

    如果ModelScope不提供PAI空间部署,您可能需要考虑其他解决方案来在摩搭本地访问推理API。这可能包括将ModelScope API部署在其他云平台或服务器上,并通过网络访问该API。

    2023-08-07 20:03:14
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
CUDA MATH API 立即下载
API PLAYBOOK 立即下载
传统企业的“+互联网”-API服务在京东方的实践 立即下载