开发者福利,魔搭推出免费模型推理API,注册就送每日2000次调用!

简介: 今天,魔搭社区开放了免费的开源模型推理API,仅需使用魔搭的SDK Token,就可以通过简单的API请求探索各种强大的开源模型的使用。

今天,魔搭社区开放了免费的开源模型推理API,仅需使用魔搭的SDK Token,就可以通过简单的API请求探索各种强大的开源模型的使用。通过API-Inference接口,无需本地的GPU和环境设置,就能轻松的依托不同开源模型的能力,展开富有创造力的尝试,与工具结合调用,来构建多种多样的AI应用原型。

01.用API-Inference建立与开源模型的链接

魔搭开源模型推理API提供了一种快速且免费的方式来探索不同任务的模型。当前的公测期间,我们主要通过提供OpenAI格式兼容的大语言模型API接口。后续更多魔搭上的开源模型,也会陆续接入来为开发者提供更好的推理API服务,包括:

  • 多模态文本生成:包括视觉理解大模型和语音多模态大模型。
  • 图像生成:使用当下流行的文生图模型轻松生成图像。
  • 经典人工智能任务:比如语音识别,语音合成,图像分割等。

各位开发者小伙伴有希望尽快支持的开源模型,欢迎在留言区积极留言模型id,点赞排名靠前的开源模型,我们将会优先支持。

02.公测期间支持的模型

我们处在一个模型飞速发展的时代,API-Inference主要为在魔搭社区中获得广泛关注的开源模型(参考了点赞,下载等数据)提供便利的调用接口。因此,在能力更强,关注度更高的下一代开源模型发布之后,现有的模型支持清单也会持续迭代。当前支持的模型列表如下:

  • Qwen/Qwen2.5-Coder-32B-Instruct
  • Qwen/Qwen2.5-Coder-14B-Instruct
  • Qwen/Qwen2.5-Coder-7B-Instruct
  • Qwen/Qwen2.5-72B-Instruct
  • Qwen/Qwen2.5-32B-Instruct
  • Qwen/Qwen2.5-14B-Instruct
  • Qwen/Qwen2.5-7B-Instruct

当前的公测期间,模型列表的更新和迭代,我们会通过文档,社区公告以及公众号等方式发布。后续我们会积极推进API-Inference作为魔搭整体模型服务体系一部分的产品化工作,在不断扩展模型覆盖范围的同时,也会直接在相关模型页面上,直接透出API-Inference的可用性。魔搭免费推理API的目标一直都是:将更好的更多的模型被更多的人体验和使用。

03.使用方法

当前魔搭平台提供的免费模型推理API,针对大语言模型提供OpenAI API兼容的接口。在通过pip install openai安装OpenAI的library,就可以通过标准的调用方式使用:

from openai import OpenAI
client = OpenAI(
    api_key="MODELSCOPE_SDK_TOKEN", # ModelScope Token
    base_url="https://api-inference.modelscope.cn/v1"
)
response = client.chat.completions.create(
    model="Qwen/Qwen2.5-Coder-32B-Instruct", # ModleScope Model-Id
    messages=[
        {
            'role': 'system',
            'content': 'You are a helpful assistant.'
        },
        {
            'role': 'user',
            'content': '用python写一下快排'
        }
    ],
    stream=True
)
for chunk in response:
    print(chunk.choices[0].delta.content, end='', flush=True)

在这个范例里,针对魔搭平台提供的API,适配的有几个地方:

  • base url 指向魔搭的服务:https://api-inference.modelscope.cn/v1/
  • api_key 使用魔搭的SDK token
  • 模型名字(model)使用魔搭上开源模型的Model Id,例如Qwen/Qwen2.5-Coder-32B-Instruct

这其中,魔搭的SDK Token,可以从您的魔搭账号中获取:

https://modelscope.cn/my/myaccesstoken

image.png

即开即用Notebook分享链接:

https://modelscope.cn/notebook/share/ipynb/86e5ec04/Qwen-Coder-inference-api.ipynb.ipynb

Note:魔搭免费推理API,旨在为开发者提供迅速免费的便捷模型调用方式,会根据实际平台的压力灵活的调整速率限制,请勿用于需要高并发以及SLA保障的线上任务,如有商业化使用的需求,建议使用各商业化平台的API。当前我们为每位魔搭注册用户提供了每天2000个请求的使用容量,希望开发者们能够喜欢。

04.最佳实践

Cursor+Inference API 代码助手

我们选取了使用Cursor来实现魔搭API-Inference的最佳实践,这里我们选用了魔搭提供的Qwen2.5-Coder-32B-Instruct模型的免费推理API,来提升开发者的开发效率。

第一步:环境配置

在获取 api_key(ModelScope SDK Token),base_url(https://api-inference.modelscope.cn/v1),以及model(Qwen/Qwen2.5-Coder-32B-Instruct)信息后,将其填写到Cursor的模型配置页面(设置->模型)

image.png

第二步:代码生成

使用Cursor chat功能(command+i),写一个“番茄钟”小应用

prompt:

image.png

代码生成ing:

image.png

效果:

image.png

第三步:tab键写个说明书

用万能tab,写一个产品说明书

18d4852c-d04f-4ae3-9e70-1869638df566.gif

第四步:代码解读,应用完善

使用多轮对话,或者chat,edit等能力,进一步完善应用

image.png

完整操作视频:

0848c79e-817d-4e85-baf7-2df5caec7e7c.gif

WebUI+Inference API 本地对话助手

第一步:安装依赖和配置 API key

!pip install gradio modelscope_studio openai

第二步:封装用户输入和对话界面

有了一个基础对话流程后,我们可以借助 gradio 来将它封装为一个对话界面。

使用最基础的 gr.ChatInterface 即可完成一个最基础的对话界面。

import gradio as gr
from openai import OpenAI
import os
client = OpenAI(
    api_key=os.getenv("MODELSCOPE_ACCESS_TOKEN"),
    base_url="https://api-inference.modelscope.cn/v1"
)
def chat(prompt, history):
    messages = [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": prompt}
    ]
    try:
        response = client.chat.completions.create(
            model="Qwen/Qwen2.5-7B-Instruct",
            messages=messages,
        )
        yield response.choices[0].message.content
    except Exception as e:
        yield str(e)
# 仅在 Notebook 中使用需要一下代码,如果之前已经定义过 `app`,关闭它
try:
    app.close()
except NameError:
    # 如果 `app` 不存在,忽略这个异常
    pass
# end
app = gr.ChatInterface(fn=chat, title="Basic Chat")
app.launch(server_port=7860)

image.png

即开即用Notebook分享链接:https://modelscope.cn/notebook/share/ipynb/685a5164/basic-chat.ipynb

点击链接阅读原文:https://modelscope.cn/notebook/share/ipynb/685a5164/basic-chat.ipynb


相关文章
|
3月前
|
开发框架 .NET API
RESTful API 设计与实现:C# 开发者的一分钟入门
【10月更文挑战第5天】本文从零开始,介绍了如何使用 C# 和 ASP.NET Core 设计并实现一个简单的 RESTful API。首先解释了 RESTful API 的概念及其核心原则,然后详细说明了设计 RESTful API 的关键步骤,包括资源识别、URI 设计、HTTP 方法选择、状态码使用和错误处理。最后,通过一个用户管理 API 的示例,演示了如何创建项目、定义模型、实现控制器及运行测试,帮助读者掌握 RESTful API 的开发技巧。
100 7
|
5月前
|
安全 Java API
告别繁琐编码,拥抱Java 8新特性:Stream API与Optional类助你高效编程,成就卓越开发者!
【8月更文挑战第29天】Java 8为开发者引入了多项新特性,其中Stream API和Optional类尤其值得关注。Stream API对集合操作进行了高级抽象,支持声明式的数据处理,避免了显式循环代码的编写;而Optional类则作为非空值的容器,有效减少了空指针异常的风险。通过几个实战示例,我们展示了如何利用Stream API进行过滤与转换操作,以及如何借助Optional类安全地处理可能为null的数据,从而使代码更加简洁和健壮。
154 0
|
3月前
|
存储 安全 API
12种最基本Web API:开发者的必学清单⭐
这些Web API 为创建高度互动和用户友好的网页应用开辟了无限可能。从存储和支付到地理位置和图形,掌握这些 API 可以提升您的Web开发技能。
191 2
|
3月前
|
前端开发 API 开发者
深度剖析:AJAX、Fetch API如何成为Python后端开发者的最佳拍档!
深度剖析:AJAX、Fetch API如何成为Python后端开发者的最佳拍档!
51 4
|
4月前
|
人工智能 Serverless API
一键服务化:从魔搭开源模型到OpenAI API服务
在多样化大模型的背后,OpenAI得益于在领域的先发优势,其API接口今天也成为了业界的一个事实标准。
一键服务化:从魔搭开源模型到OpenAI API服务
|
5月前
|
存储 JSON API
淘系API接口(解析返回的json数据)商品详情数据解析助力开发者
——在成长的路上,我们都是同行者。这篇关于商品详情API接口的文章,希望能帮助到您。期待与您继续分享更多API接口的知识,请记得关注Anzexi58哦! 淘宝API接口(如淘宝开放平台提供的API)允许开发者获取淘宝商品的各种信息,包括商品详情。然而,需要注意的是,直接访问淘宝的商品数据API通常需要商家身份或开发者权限,并且需要遵循淘宝的API使用协议。
淘系API接口(解析返回的json数据)商品详情数据解析助力开发者
|
4月前
|
安全 API 开发者
Web 开发新风尚!Python RESTful API 设计与实现,让你的接口更懂开发者心!
在当前的Web开发中,Python因能构建高效简洁的RESTful API而备受青睐,大大提升了开发效率和用户体验。本文将介绍RESTful API的基本原则及其在Python中的实现方法。以Flask为例,演示了如何通过不同的HTTP方法(如GET、POST、PUT、DELETE)来创建、读取、更新和删除用户信息。此示例还包括了基本的路由设置及操作,为开发者提供了清晰的API交互指南。
132 6
|
4月前
|
Java API 开发者
【Java字节码的掌控者】JDK 22类文件API:解锁Java深层次的奥秘,赋能开发者无限可能!
【9月更文挑战第8天】JDK 22类文件API的引入,为Java开发者们打开了一扇通往Java字节码操控新世界的大门。通过这个API,我们可以更加深入地理解Java程序的底层行为,实现更加高效、可靠和创新的Java应用。虽然目前它还处于预览版阶段,但我们已经可以预见其在未来Java开发中的重要地位。让我们共同期待Java字节码操控新篇章的到来,并积极探索类文件API带来的无限可能!
|
5月前
|
Java 缓存 数据库连接
揭秘!Struts 2性能翻倍的秘诀:不可思议的优化技巧大公开
【8月更文挑战第31天】《Struts 2性能优化技巧》介绍了提升Struts 2 Web应用响应速度的关键策略,包括减少配置开销、优化Action处理、合理使用拦截器、精简标签库使用、改进数据访问方式、利用缓存机制以及浏览器与网络层面的优化。通过实施这些技巧,如懒加载配置、异步请求处理、高效数据库连接管理和启用GZIP压缩等,可显著提高应用性能,为用户提供更快的体验。性能优化需根据实际场景持续调整。
104 0

热门文章

最新文章