基于阿里云Qwen3构建AI聊天助手(新手图文教程)

简介: 阿里云正式开源Qwen3系列大模型,含2款MoE与6款Dense模型(0.6B–235B),支持119种语言、思考/非思考双模式。依托函数计算FC,提供vLLM/SGLang等部署方案,新手可快速体验AI聊天助手。首月Coding Plan低至7.9元。

基于阿里云Qwen3构建AI聊天助手,新手也能一次成功,Qwen3 正式发布并全部开源8款混合推理模型。凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础,本篇文档将以通义千问3-8B模型为例演示部署流程,欢迎您进行体验。详细参考阿里云通义千问大模型官方页面:https://www.aliyun.com/product/tongyi 如下图:

千问大模型.png

此次开源包括两款MoE模型:Qwen3-235B-A22B(2350多亿总参数、 220多亿激活参数)和Qwen3-30B-A3B(300亿总参数、30亿激活参数),六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。这些模型在代码、数学、通用能力等基准测试中表现出极具竞争力的结果。


目前阿里云推出百炼Coding Plan,费用首月7.9元起,申请:https://www.aliyun.com/product/bailian

codingplan-2.jpg

Qwen3 支持思考模式和非思考模式两种模式,适用于不同类型的问题,支持119种语言和方言。

依托于阿里云函数计算FC算力,Serverless+ AI开发平台FunctionAI现已提供模型服务、应用模板两种部署方式辅助您部署Qwen3系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验

支持的模型列表

部署方式说明:

  • vLLM:大模型加速推理框架,优化内存利用率和吞吐量,适合高并发场景。
  • SGLang:支持复杂的LLM Programs,如多轮对话、规划、工具调用和结构化输出等,并通过协同设计前端语言和后端运行时,提升多GPU节点的灵活性和性能。

模型

部署方式

最低配置

通义千问3-0.6B

vLLM/SGLang/Ollama

GPU 进阶型

通义千问3-0.6B-FP8

vLLM/SGLang/Ollama

GPU 进阶型

通义千问3-1.7B

vLLM/SGLang/Ollama

GPU 进阶型

通义千问3-1.7B-FP8

vLLM/SGLang/Ollama

GPU 进阶型

通义千问3-4B

vLLM/SGLang/Ollama

GPU 进阶型

通义千问3-4B-FP8

vLLM/SGLang/Ollama

GPU 进阶型

通义千问3-8B

vLLM/SGLang/Ollama

GPU 性能型

通义千问3-8B-FP8

vLLM/SGLang/Ollama

GPU 性能型

通义千问3-14B

vLLM/SGLang/Ollama

GPU 性能型

通义千问3-14B-FP8

vLLM/SGLang/Ollama

GPU 性能型

计费说明

本教程所涉及的模型服务其本质是在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取极速模式下预置的快照费用。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述


函数计算免费额度领取:https://free.aliyun.com/    如下图,搜索函数计算”如下图:

函数计算免费额度.png


重要

本项目部署完成,会预置一个启动快照,即使您在不使用的情况下,也会存在快照费用,请您根据需求情况及时删除项目,以免产生预期外的费用。

应用模板部署

1. 创建项目

登录函数计算3.0控制台,在左侧导航栏单击Function AI,在Funciton AI页面导航栏,选择项目,然后单击创建项目,选择基于模板创建

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

2. 基于模板部署项目

  1. 在搜索栏输入Qwen3进行搜索,单击基于 Qwen3 构建AI 聊天助手,进入模板详情页,单击立即部署


  2. 选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费说明。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。
    说明
    如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。


3. 验证应用

部署完毕后,点击Open-WebUI服务,单击自定义域名的公网访问地址进行访问。

删除项目

  1. 进入项目详情 > 点击删除,会进入到删除确认对话框。

  2. 您可以看到要删除的资源。默认情况下,Function AI会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。

  3. 勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除
相关文章
|
1月前
|
人工智能 前端开发 Serverless
不用写一行代码!阿里云上线 Qwen3 一键部署,秒开大模型对话界面
通义千问Qwen3正式开源8款混合推理模型,含2款MoE(235B/30B)和6款Dense(0.6B–32B),支持119种语言、思考/非思考双模式,在代码、数学等基准表现优异。依托阿里云函数计算,提供vLLM/SGLang/Ollama等多种部署方式,开箱即用。(239字)
399 23
|
22天前
|
机器学习/深度学习 人工智能 编解码
抽烟行为检测数据集(约3000张图片已标注)| YOLO训练数据集 AI视觉检测
本数据集含约3000张多场景抽烟行为图像,YOLO格式标注(单类“smoke”),覆盖室内外、不同光照与人群姿态,支持YOLOv5/v8直接训练。适用于智慧安防、禁烟监管及AI行为识别研究,助力实时检测与自动告警。
抽烟行为检测数据集(约3000张图片已标注)| YOLO训练数据集 AI视觉检测
|
13天前
|
人工智能 弹性计算 数据可视化
部署OpenClaw有哪些成本?附OpenClaw低成本部署指南
OpenClaw(“养龙虾”)是一款开源AI代理框架,可自动化文件处理、工作流与消息管理。本文详解其部署成本:软件免费,云服务器低至68元/年,阿里云百炼新用户享7000万Token免费额度,并提供一键图形化部署指南。
511 32
|
1月前
|
人工智能 运维 自然语言处理
XgenCore Works V2.7.9(玄晶引擎)升级公告 赋能云原生开发者高效落地
XgenCore Works V2.7.9(玄晶引擎)正式发布,聚焦PC端内容创作、企业独立部署运维、自动化视频生成三大场景,新增6项功能(含数字人口播混剪入口、智能体统一管理等),修复14项高频Bug,全面提升兼容性、稳定性与实操体验,深度适配阿里云开发者及企业用户需求。
182 21
|
1月前
|
人工智能 弹性计算
阿里云权益中心2026年最新:个人、学生及企业用户上云补贴及活动政策解读
2026阿里云最新权益汇总:新用户38元抢轻量服务器,老用户99元享ECS,企业199元起;学生领300元无门槛券;开通百炼免费得7000万tokens;AI先锋企业享1300元抵扣金。优惠券速领→aly.wiki(239字)
359 11
|
1月前
|
Java 开发者
Java异常处理中的性能陷阱:别让基础拖垮你的应用
Java异常处理中的性能陷阱:别让基础拖垮你的应用
333 137
|
3天前
|
Java 大数据 双11
一张图看懂 Java 能干什么——从淘宝下单到双11抢货,背后都是它
本文专为Java零基础小白打造,用通俗比喻讲清Java本质(“万能翻译官”)、跨平台特性及核心优势;解析其在电商、支付等真实场景的应用;破除“Java已死”误区,结合数据说明其持续强势;并给出清晰入门路径与实用学习建议,助你科学起步。
一张图看懂 Java 能干什么——从淘宝下单到双11抢货,背后都是它
|
1月前
|
API Docker 异构计算
大模型应用:大模型本地化部署与API调用:打包迁移到服务器的多种方式实践.47
本文详解大模型从本地运行到云端API服务的全链路部署:涵盖硬件要求(GPU/CPU/内存)、软件环境(Python/FastAPI/Transformers)、模型选型(Qwen/ChatGLM等),并提供脚本部署、EXE打包(PyInstaller)和Docker容器化三种方案,支持局域网调用与接口文档自动生成,助力零基础用户快速实现“开箱即用”的稳定API服务。
926 25
|
13天前
|
机器学习/深度学习 缓存 监控
大模型应用:矩阵乘加(GEMM)全解析:大模型算力消耗的逻辑与优化.68
GEMM(矩阵乘加)是大模型算力核心,占Transformer计算量90%以上。本文系统解析其数学原理、高维适配、算力测算公式,并详解INT8/INT4量化、矩阵分块、硬件加速与批处理四大优化策略,结合代码示例与性能监控方法,助力高效推理落地。
223 17

热门文章

最新文章