10分钟上手全球开源模型冠军 Qwen3

简介: 阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。

领取免费额度,一键部署Qwen3:https://www.aliyun.com/solution/tech-solution/use-qwen3-ranging-from-0-6b-to-235b

5月9日,全球权威 AI 基准测试平台Artificial Analysis公布最新一期大模型榜单,阿里通义千问 Qwen3 智能水平位列全球前五,开源第一;同时
Qwen3 为所有顶尖模型中价格最低,推理成本不到 DeepSeek-R1 的1/3,是 Claude 3.7 的1/20。截至目前,Qwen3已斩获LiveBench、LiveCodeBench、SuperClue等多个榜单的全球开源冠军、国产模型冠军。


本文将介绍通过阿里云百炼平台调用 Qwen3 开源模型,10分钟即可快速完成搭建!


模型亮点

推理能力显著增强

  • 旗舰模型 Qwen3-235B-A22B 在代码/数学及通用能力测试中比肩DeepSeek-R1、o1 等顶级模型;
  • 中型 MoE 模型 Qwen3-30B-A3B 性能超越 QwQ-32B;
  • 小模型 Qwen3-4B 性能匹敌 Qwen2.5-72B-Instruct。


两种模式无缝切换

  • 思考模式逐步分析,适合复杂问题;非思考模式即时响应,适合简单问题。
  • 一个模型支持两种模式,无需部署多个模型来分别适配复杂和简单任务。


多语言支持扩展

  • 支持 119 种语言和方言,覆盖全球主要语种。


Agent 能力增强

  • 优化了 Agent 和代码能力,原生支持 MCP,能更精准地调用工具。


方案架构

阿里云百炼平台提供标准化接口,免去了自行构建模型服务基础设施的麻烦,并支持负载均衡及自动扩缩容,确保了 API 调用的稳定性。此外,结合使用 Cherry Studio 可视化界面客户端,用户无需进行命令行操作,即可通过直观的图形界面体验 Qwen3 模型思考模式的丝滑切换与工具调用能力。

配置完成后,会在本地搭建一个如下图所示的运行环境。

实践部署

1)获取百炼 API-KEY

访问阿里云百炼控制台[1],在已创建的 API Key 操作列,单击查看,获取 API KEY。


2)下载 Cherry Studio 客户端

访问 Cherry Studio [2]下载并安装客户端。(Cherry Studio 是业界主流的大模型对话客户端且集成了 MCP 功能,可以方便地与大模型进行对话。)


3)配置 API 并进行对话

单击左下角的设置按钮,在模型服务栏中找到阿里云百炼,在API 密钥输入您前面获取的 API Key;

在API 地址输入:


https://dashscope.aliyuncs.com/compatible-mode/v1/;单击添加。

在模型 ID填入您需要使用的 Qwen3 模型,此处以 qwen3-235b-a22b 为例; 您也可以填入其他 Qwen3 模型 [3]。


模型体验

1)快速体验 Qwen3 模型

回到对话框界面,在顶部选择模型后开始对话。Qwen3 模型提供了通过 prompt 来控制开启或关闭思考模式的功能。可以在 prompt 加上/no_think的后缀,使 Qwen3 模型在之后的回复关闭思考模式。若需要重新开启思考模式,只需在最新输入的 prompt 加上 /think 后缀。

2)体验 Qwen3 的工具调用能力

Qwen3 的工具调用能力得到了较大提升,且加强了 MCP 方面的能力。此处以接入 ModelScope 提供的Fetch 网页抓取[4] MCP 服务器为例,可以通过 SSE URL 连接服务,获取专属URL。

单击 Cherry Studio 左下角的设置按钮,单击 MCP 服务器,在新页面中单击添加服务器后进行以下配置:

  • 名称:您可以自定义名称,此处填入“Fetch网页内容抓取”;
  • 类型:选择服务器发送事件(sse);
  • URL:填入您在 ModelScope 获取的专属 URL,格式为:https://mcp.api-inference.modelscope.cn/sse/xxx

保存后回到对话框,单击 MCP 服务器的图标,并选中添加的 Fetch 网页内容抓取。

此时 MCP 服务器的图标变绿,向输入框输入问题 “https://qwenlm.github.io/blog/qwen3/ 请一次性提取这个网页,然后回答我的问题:qwen3 有哪些模型?


Qwen3 模型会通过Fetch网页内容抓取工具获取指定网页的内容,并准确回答问题:


清理资源

进入 API Key 管理页面[1],找到目标 API Key 进行删除,删除后将无法通过该 API Key 调用百炼提供的模型。


快点击阅读原文体验搭建吧~


参考链接:

[1] https://bailian.console.aliyun.com/?spm=a2c6h.28997786.0.0.79487d1avrcQ01&tab=model#/api-key?utm_content=g_1000403723

[2] https://docs.cherry-ai.com/cherry-studio/download

[3] https://help.aliyun.com/zh/model-studio/models?utm_content=g_1000403724

[4] https://www.modelscope.cn/mcp/servers/@modelcontextprotocol/fetch?utm_content=g_1000403725



来源  |  阿里云开发者公众号

作者  |  知桥



相关文章
|
27天前
|
机器学习/深度学习 自然语言处理 算法框架/工具
实战 | Qwen2.5-VL模型目标检测(Grounding)任务领域微调教程
在目标检测领域,众多神经网络模型早已凭借其卓越的性能,实现了精准的目标检测与目标分割效果。然而,随着多模态模型的崛起,其在图像分析方面展现出的非凡能力,为该领域带来了新的机遇。多模态模型不仅能够深入理解图像内容,还能将这种理解转化为文本形式输出,极大地拓展了其应用场景。
1552 74
|
26天前
|
人工智能 数据挖掘 API
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
155 21
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
|
27天前
|
Java 数据库 Docker
基于neo4j数据库和dify大模型框架的rag模型搭建
基于neo4j数据库和dify大模型框架的rag模型搭建
261 35
|
29天前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
115 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
16天前
|
机器学习/深度学习 编解码 缓存
通义万相首尾帧图模型一键生成特效视频!
本文介绍了阿里通义发布的Wan2.1系列模型及其首尾帧生视频功能。该模型采用先进的DiT架构,通过高效的VAE模型降低运算成本,同时利用Full Attention机制确保生成视频的时间与空间一致性。模型训练分为三个阶段,逐步优化首尾帧生成能力及细节复刻效果。此外,文章展示了具体案例,并详细说明了训练和推理优化方法。目前,该模型已开源。
|
16天前
|
机器学习/深度学习 编解码 文字识别
小米又放大招!MiMo-VL 多模态大模型开源,魔搭推理微调全面解读来了!
今天,小米开源发布两款 7B 规模视觉-语言模型 MiMo-VL-7B-SFT 和 MiMo-VL-7B-RL。
184 9
|
16天前
|
测试技术
字节Seed开源统一多模态理解和生成模型 BAGEL!
近期,字节跳动Seed推出了 BAGEL—— 一个开源的多模态理解和生成础模型,具有70亿个激活参数(总共140亿个),并在大规模交错多模态数据上进行训练。
109 4
|
27天前
|
人工智能 数据可视化 物联网
Reasoning模型蒸馏实践:用大模型提升小模型能力
DeepSeek-R1的爆火让更多开发者注意到模型蒸馏技术——这种让小模型也能"开小灶"习得大模型知识精华的秘诀。今天我们就用Qwen2.5-1.5B小模型(相当于AI界的初中生)来进行实践!
127 5