ModelScope钉钉的gpts在哪里用?

ModelScope钉钉的gpts在哪里用?

展开
收起
小小爱吃香菜 2024-01-16 20:48:02 44 发布于江西 分享
分享
版权
举报
阿里云 AI 助理回答

在ModelScope中使用钉钉的GPTs模型,通常需要通过以下步骤完成部署和调用。以下是详细的操作流程:


1. 准备工作

在开始之前,请确保您已经完成以下准备工作: - 已注册并登录阿里云账号。 - 已开通ModelScope服务,并具备相关权限。 - 确保您的环境支持API调用(如Postman或其他HTTP工具)。


2. 部署GPTs模型

步骤一:选择并部署模型

  1. 登录ModelScope平台,进入模型库页面,搜索与钉钉相关的GPTs模型(如qwen/Qwen1.5-4B-Chat等)。
  2. 找到目标模型后,单击模型详情页中的部署按钮。
  3. 根据提示选择部署方式(如通过容器服务ACK或函数计算FC),并完成模型的部署操作。

步骤二:配置推理服务

  1. 如果您选择通过ACK部署模型,可以参考以下命令完成推理服务的启动:

    arena serve custom \
    -name=modelscope \
    -version=v1 \
    -gpus=1 \
    -replicas=1 \
    -restful-port=8000 \
    -image=kube-ai-registry.cn-shanghai.cr.aliyuncs.com/kube-ai/quick-deploy-llm:v1 \
    "MODEL_ID=qwen/Qwen1.5-4B-Chat python3 server.py"
    

    说明
    - -gpus=1 表示使用1张GPU卡。 - MODEL_ID 参数用于指定要加载的模型ID,您可以根据需求替换为其他模型。

  2. 部署完成后,等待模型下载和初始化完成(通常需要10分钟左右)。


3. 调用GPTs模型

步骤一:获取API地址

  1. 在ModelScope平台的服务管理页面,找到已部署的模型服务,获取其公网访问地址。
  2. 将该地址拼接接口路径(如/generate),用于后续调用。

步骤二:发送推理请求

  1. 使用Postman或其他HTTP工具,向模型服务发送POST请求。例如:

    curl -XPOST http://localhost:8000/generate \
    -H "Content-Type: application/json" \
    -d '{"text_input": "什么是人工智能?", "parameters": {"stream": false, "temperature": 0.9, "seed": 10}}'
    

    说明
    - text_input 是输入的文本内容。 - parameters 包含生成参数,如temperature(控制生成结果的随机性)和seed(随机种子)。

  2. 模型将返回生成的结果,例如:

    {
     "model_name": "/root/.cache/modelscope/hub/qwen/Qwen1___5-4B-Chat",
     "text_output": "什么是人工智能?人工智能是研究如何使计算机和机器模仿人类的智能行为来实现自主思考。"
    }
    

4. 清理资源

如果您不再需要使用该模型服务,请及时清理相关资源以避免产生额外费用: 1. 删除推理服务:

arena serve del modelscope
  1. 如果使用了NAS存储,请前往文件存储控制台删除对应的文件系统。

重要提醒

  • 计费说明:函数计算FC在不调用时不会计费,但文件存储NAS只要有数据存储就会收费,请务必注意清理资源。
  • 模型更新:ModelScope上的模型会不断更新,请定期检查是否有新版本可用。
  • 权限管理:确保您的账号具备调用API和服务部署的权限。

通过以上步骤,您可以在ModelScope中成功部署并调用钉钉的GPTs模型,实现高效的文本生成和对话功能。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等