ModelScope有没PAI空间部署LLM API服务通过摩搭本地访问inference API?
我们正在魔搭社区的模型服务中对接这样的方式,并准备上线中。希望下周可以支持。不知道能否赶得上您的时间。-此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”
如果ModelScope提供了API服务并支持PAI空间部署,您可以通过在摩搭本地访问推理API来使用它。PAI空间部署通常涉及在您的本地环境中设置和运行ModelScope服务,以便您可以通过API与其进行通信。
要了解有关ModelScope的API服务和PAI空间部署的详细信息,我建议您参阅ModelScope的官方文档、GitHub存储库或其他相关资源。这些资源通常提供有关如何配置、部署和使用ModelScope API服务的说明。
如果ModelScope不提供PAI空间部署,您可能需要考虑其他解决方案来在摩搭本地访问推理API。这可能包括将ModelScope API部署在其他云平台或服务器上,并通过网络访问该API。