在魔塔社区-模型服务 里面一键部署的deepseek模型怎么使用?

路径:魔塔社区 - 模型服务 - 部署服务 -
免费部署到魔搭推理API
网址:https://www.modelscope.cn/my/mynotebook
在这里一键部署了一个免费实例,deepseek R1
点击右侧的“详情”或“立即使用”弹出的是同样的内容:
部署参数
立即使用
您部署的服务提供OpenAI API接口,可通过OpenAI SDK进行调用。请确保您的服务处于正常运行状态,并预先安装OpenAI SDK:
pip install openai
from openai import OpenAI
下面是一段代码
代码输入到juptyterLab的终端里面只能运行pip install openai,后面的代码报错。
请教大家,
现在应该如何使用这个部署的模型?

您部署的服务提供OpenAI API接口,可通过OpenAI SDK进行调用。请确保您的服务处于正常运行状态,并预先安装OpenAI SDK:

这个API Key在base_url在什么地方使用?
OpenAI SDK在本地电脑上安装?

使用其他软件,比如chatbox,能否直接调用?如何操作?

展开
收起
1413657871383134 2025-02-20 18:29:14 919 发布于山东 分享
分享
版权
举报
2 条回答
写回答
取消 提交回答
  • 以下是针对魔塔社区(ModelScope)部署DeepSeek模型后调用问题的结构化解决方案:


    ### 一、核心信息获取 #### 1. 获取API密钥和访问地址步骤:   1. 登录魔塔控制台   2. 进入「模型服务」→「我的部署」   3. 找到"DeepSeek R1"实例,点击「详情」   4. 在「API调用」标签页获取:      - BASE_URL(形如 https://api.modelscope.cn/v1)      - API_KEY(32位字母数字组合)

    #### 2. 服务状态验证

    # 终端执行连通性测试
    curl -X GET "${BASE_URL}/models" \
      -H "Authorization: Bearer ${API_KEY}"
    

    预期返回HTTP 200状态码


    ### 二、JupyterLab调用配置 #### 1. 环境准备

    # 在Jupyter Notebook单元格执行
    !pip install openai==1.12.0  # 指定兼容版本
    

    #### 2. 正确调用代码

    from openai import OpenAI
    
    client = OpenAI(
        base_url = "https://api.modelscope.cn/v1",  # 替换实际BASE_URL
        api_key = "your_api_key_here"               # 替换实际API_KEY
    )
    
    response = client.chat.completions.create(
        model="deepseek-r1",
        messages=[
            {"role": "user", "content": "解释量子计算"}
        ],
        temperature=0.7,
        max_tokens=512
    )
    
    print(response.choices[0].message.content)
    

    #### 3. 常见错误处理 | 错误类型              | 解决方案                          | |----------------------|----------------------------------| | AuthenticationError | 检查API_KEY是否包含特殊字符或空格 | | ConnectionError      | 验证BASE_URL是否包含/v1路径    | | RateLimitError       | 免费版限制3 QPS,需增加请求间隔   |


    ### 三、本地环境调用 #### 1. SDK安装(本地PC)

    # Windows PowerShell
    pip install openai --trusted-host pypi.tuna.tsinghua.edu.cn -i https://pypi.tuna.tsinghua.edu.cn/simple
    
    # 设置环境变量(临时)
    $env:OPENAI_API_KEY = "your_api_key"
    $env:OPENAI_BASE_URL = "https://api.modelscope.cn/v1"
    

    #### 2. 调用验证脚本

    # local_test.py
    import os
    from openai import OpenAI
    
    client = OpenAI(
        base_url=os.getenv("OPENAI_BASE_URL"),
        api_key=os.getenv("OPENAI_API_KEY")
    )
    
    print(client.models.list())  # 验证服务连通性
    

    ### 四、第三方客户端调用(以Chatbox为例) #### 1. 配置参数 | 参数项         | 填写值                          | |---------------|--------------------------------| | API Endpoint  | https://api.modelscope.cn/v1   | | API Key       | 您的32位密钥                   | | Model Name    | deepseek-r1                   | | API Type      | OpenAI-Compatible             |

    #### 2. 连接测试流程 1. 下载Chatbox客户端 2. 点击「设置」→「自定义API」 3. 填入上述参数 4. 发送测试消息"你好"


    ### 五、高级调试技巧 #### 1. 请求头分析

    # 查看实际请求URL和Headers
    print(client._client._base_url)  # 输出实际BASE_URL
    print(client._client._api_key)   # 验证密钥掩码
    

    #### 2. 网络诊断

    # 检查DNS解析
    nslookup api.modelscope.cn
    
    # 测试端口连通性
    telnet api.modelscope.cn 443
    

    #### 3. 限流规避策略

    # 添加指数退避重试
    from tenacity import retry, wait_exponential
    
    @retry(wait=wait_exponential(multiplier=1, min=2, max=10))
    def safe_call():
        return client.chat.completions.create(...)
    

    ### 六、服务状态监控 1. 在魔塔控制台查看「调用统计」仪表盘 2. 关注「错误类型」分布 3. 设置「用量告警」(免费版每日限额500次)


    通过以上步骤,可确保正确调用部署的DeepSeek模型。若仍存在问题,建议在魔塔社区提交工单时附上: - 完整的错误堆栈 - 请求ID(x-request-id响应头) - 调用时间戳(精确到秒)

    2025-04-18 07:54:48 举报
    赞同 2 评论

    评论

    全部评论 (0)

    登录后可评论
  • 可以看一下最新的活动里,有教程

    2025-02-26 21:32:02 举报
    赞同 261 评论

    评论

    全部评论 (0)

    登录后可评论

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等