ModelScope中咱这个上面大模型的api接口在哪里?

ModelScope中咱这个上面大模型的api接口在哪里?我想把几个大模型连接起来。
https://modelscope.cn/models/PollyZhao/bert-base-chinese

展开
收起
小小鹿鹿鹿 2024-03-05 15:42:55 399 分享 版权
阿里云 AI 助理回答

在ModelScope中,您可以通过阿里云百炼大模型服务平台提供的API接口来连接和调用多个大模型。以下是详细的步骤和配置说明,帮助您完成这一目标。


1. 获取API Key

在使用任何API之前,您需要先获取API Key,并将其配置到环境变量中以降低泄露风险。
- 获取方法:参考文档中的“获取API Key”部分。 - 推荐配置方式:将API Key设置为环境变量(如DASHSCOPE_API_KEY),避免直接在代码中暴露。


2. 配置API接口

根据您的需求,选择适合的API接口进行调用。以下是一些常见的API接口及其用途:

2.1 文本生成接口

如果您需要调用文本生成模型(如Llama系列或DeepSeek模型),可以使用以下HTTP接口: - 接口地址

POST https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
  • 请求头(Headers)
    • Content-Type: application/json
    • Authorization: Bearer <your-api-key>
  • 请求体(Body)
    {
    "model": "Llama2-7b-chat-v2",
    "input": "您希望生成的文本内容"
    }
    

2.2 嵌入向量接口

如果您需要生成文本嵌入向量(如text-embedding-v3模型),可以使用以下接口: - 接口地址

POST https://dashscope.aliyuncs.com/compatible-mode/v1/embeddings
  • 请求头(Headers)
    • Content-Type: application/json
    • Authorization: Bearer <your-api-key>
  • 请求体(Body)
    {
    "model": "text-embedding-v3",
    "input": "衣服的质量杠杠的,很漂亮",
    "encoding_format": "float"
    }
    

2.3 图文多模态接口

如果您需要处理图文结合的任务(如通义千问VL模型),可以使用以下接口: - 接口地址

POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions
  • 请求头(Headers)
    • Content-Type: application/json
    • Authorization: Bearer <your-api-key>
  • 请求体(Body)
    {
    "model": "qwen-vl-plus",
    "messages": [
      {
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": "这些是什么"
          },
          {
            "type": "image_url",
            "image_url": {
              "url": "图片URL"
            }
          }
        ]
      }
    ]
    }
    

3. 连接多个大模型

要将多个大模型连接起来,您可以按照以下步骤操作:

3.1 使用Cherry Studio接入

  1. 打开Cherry Studio,单击左下角的设置按钮
  2. 模型服务栏中找到阿里云百炼,填写以下信息:
    • API 密钥:输入您的API Key。
    • API 地址:填入https://dashscope.aliyuncs.com/compatible-mode/v1/
    • 单击添加
  3. 模型 ID中填入您需要使用的模型(如deepseek-r1),并自动生成模型名称分组名称
  4. 测试连接:在界面上方选中添加的模型,输入“你是谁”进行测试。

3.2 使用Dify接入

  1. 打开Dify的设置界面,单击模型供应商,找到OpenAI-API-compatible卡片,单击添加模型
  2. 配置API参数:
    • 模型类型:选择LLM
    • 模型名称:输入您需要使用的模型(如deepseek-r1)。
    • API Key:输入您的API Key。
    • API endpoint URL:填入https://dashscope.aliyuncs.com/compatible-mode/v1
  3. 确保OpenAI-API-compatible卡片中的模型按钮处于开启状态。
  4. 测试对话:进入应用,在右上角的模型选择位置选择对应的模型,开始对话。

4. 注意事项

  • 异步任务支持:某些任务(如虚拟模特生成、批处理任务)采用异步方式提供服务。您需要先创建任务,再通过任务ID查询结果。
  • 限流规则:不同模型有不同的QPS限制和同时处理任务数量限制,请参考具体模型的文档说明。
  • 数据更新延迟:Token消耗量及调用次数的数据按小时更新,高峰期可能有小时级延迟,请耐心等待。

5. 示例:连接BERT模型

如果您希望连接类似PollyZhao/bert-base-chinese这样的模型,可以通过以下方式实现: 1. 确认该模型是否已集成到百炼平台。如果未集成,您需要自行部署或联系技术支持。 2. 使用上述文本生成或嵌入向量接口,替换model字段为对应模型名称。


通过以上步骤,您可以成功连接和调用多个大模型,并根据需求灵活组合它们的功能。如有进一步问题,请随时咨询!

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理