通过pai-eas使用modelscope-inference在倚天上部署大模型,这个现在支持吗 ?
目前,通过PAI-EAS使用modelscope-inference
镜像在倚天(Yitian)芯片上部署大模型是支持的,但需要满足一定的条件和配置要求。以下是详细说明:
modelscope-inference
镜像,用于快速部署ModelScope社区中的模型。modelscope-inference
,并根据需求选择对应的镜像版本。MODEL_ID
:指定要部署的ModelScope模型ID(例如iic/nlp_csanmt_translation_en2zh
)。TASK
:指定模型的任务类型(例如translation
)。REVISION
:指定模型的版本号(例如v1.0.1
)。示例代码(Python):
import requests
url = "<service_url>"
headers = {"Authorization": "<token>"}
data = {"prompt": "福建呢?", "history": [["浙江的省会是哪里?", "杭州"], ["江苏呢?", "南京"]]}
response = requests.post(url, headers=headers, json=data)
print(response.json())
注意:请将
<service_url>
和<token>
替换为实际的服务地址和Token。
通过PAI-EAS使用modelscope-inference
镜像在倚天芯片上部署大模型是完全可行的,且EAS提供了完善的工具链和优化机制来简化这一过程。如果您在部署过程中遇到问题,可以参考相关文档或联系技术支持获取帮助。
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352