路径:魔塔社区 - 模型服务 - 部署服务 -
免费部署到魔搭推理API
网址:https://www.modelscope.cn/my/mynotebook
在这里一键部署了一个免费实例,deepseek R1
点击右侧的“详情”或“立即使用”弹出的是同样的内容:
部署参数
立即使用
您部署的服务提供OpenAI API接口,可通过OpenAI SDK进行调用。请确保您的服务处于正常运行状态,并预先安装OpenAI SDK:
pip install openai
from openai import OpenAI
下面是一段代码
代码输入到juptyterLab的终端里面只能运行pip install openai,后面的代码报错。
请教大家,
现在应该如何使用这个部署的模型?
您部署的服务提供OpenAI API接口,可通过OpenAI SDK进行调用。请确保您的服务处于正常运行状态,并预先安装OpenAI SDK:
这个API Key在base_url在什么地方使用?
OpenAI SDK在本地电脑上安装?
使用其他软件,比如chatbox,能否直接调用?如何操作?
以下是针对魔塔社区(ModelScope)部署DeepSeek模型后调用问题的结构化解决方案:
### 一、核心信息获取 #### 1. 获取API密钥和访问地址 - 步骤: 1. 登录魔塔控制台 2. 进入「模型服务」→「我的部署」 3. 找到"DeepSeek R1"实例,点击「详情」 4. 在「API调用」标签页获取: - BASE_URL
(形如 https://api.modelscope.cn/v1
) - API_KEY
(32位字母数字组合)
#### 2. 服务状态验证
# 终端执行连通性测试
curl -X GET "${BASE_URL}/models" \
-H "Authorization: Bearer ${API_KEY}"
预期返回HTTP 200状态码
### 二、JupyterLab调用配置 #### 1. 环境准备
# 在Jupyter Notebook单元格执行
!pip install openai==1.12.0 # 指定兼容版本
#### 2. 正确调用代码
from openai import OpenAI
client = OpenAI(
base_url = "https://api.modelscope.cn/v1", # 替换实际BASE_URL
api_key = "your_api_key_here" # 替换实际API_KEY
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[
{"role": "user", "content": "解释量子计算"}
],
temperature=0.7,
max_tokens=512
)
print(response.choices[0].message.content)
#### 3. 常见错误处理 | 错误类型 | 解决方案 | |----------------------|----------------------------------| | AuthenticationError | 检查API_KEY是否包含特殊字符或空格 | | ConnectionError | 验证BASE_URL是否包含/v1
路径 | | RateLimitError | 免费版限制3 QPS,需增加请求间隔 |
### 三、本地环境调用 #### 1. SDK安装(本地PC)
# Windows PowerShell
pip install openai --trusted-host pypi.tuna.tsinghua.edu.cn -i https://pypi.tuna.tsinghua.edu.cn/simple
# 设置环境变量(临时)
$env:OPENAI_API_KEY = "your_api_key"
$env:OPENAI_BASE_URL = "https://api.modelscope.cn/v1"
#### 2. 调用验证脚本
# local_test.py
import os
from openai import OpenAI
client = OpenAI(
base_url=os.getenv("OPENAI_BASE_URL"),
api_key=os.getenv("OPENAI_API_KEY")
)
print(client.models.list()) # 验证服务连通性
### 四、第三方客户端调用(以Chatbox为例) #### 1. 配置参数 | 参数项 | 填写值 | |---------------|--------------------------------| | API Endpoint | https://api.modelscope.cn/v1 | | API Key | 您的32位密钥 | | Model Name | deepseek-r1 | | API Type | OpenAI-Compatible |
#### 2. 连接测试流程 1. 下载Chatbox客户端 2. 点击「设置」→「自定义API」 3. 填入上述参数 4. 发送测试消息"你好"
### 五、高级调试技巧 #### 1. 请求头分析
# 查看实际请求URL和Headers
print(client._client._base_url) # 输出实际BASE_URL
print(client._client._api_key) # 验证密钥掩码
#### 2. 网络诊断
# 检查DNS解析
nslookup api.modelscope.cn
# 测试端口连通性
telnet api.modelscope.cn 443
#### 3. 限流规避策略
# 添加指数退避重试
from tenacity import retry, wait_exponential
@retry(wait=wait_exponential(multiplier=1, min=2, max=10))
def safe_call():
return client.chat.completions.create(...)
### 六、服务状态监控 1. 在魔塔控制台查看「调用统计」仪表盘 2. 关注「错误类型」分布 3. 设置「用量告警」(免费版每日限额500次)
通过以上步骤,可确保正确调用部署的DeepSeek模型。若仍存在问题,建议在魔塔社区提交工单时附上: - 完整的错误堆栈 - 请求ID(x-request-id
响应头) - 调用时间戳(精确到秒)
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352
你好,我是AI助理
可以解答问题、推荐解决方案等
评论
全部评论 (0)