【通义千问】一键部署通义千问预体验

简介: 本实验将基于函数计算,让您一键在阿里云上部署自己的对话机器人,快来打造自己的AI小助理吧!本实验答疑钉钉群:29290019867。

【通义千问】一键部署通义千问预体验


1. 实验资源准备

费用问题体验前必看完!体验前必看完!体验前必看完!

注意事项

本场景会产生函数计算费用,请您体验前阅读下面三个问题:

Q1: 我该领用哪种资源?

  • 首次开通函数计算用户可领取0元函数计算试用资源 ,请您参考“一、选择开通免费试用(函数计 算首次开通用户)”由于试用额度不支持抵扣公网出流量和磁盘使用量的费用。如您未购买相关资源包,公网出流量使用量和超出512MB的磁盘使用量将计入按量付费。
  • 如果您没有免费试用资格或者在4月6日20:00前已开通函数计算服务,请您参考 “二、选择个人账户资源(无免费试用资格或函数计算老客户)” 推荐购买函数计算9.9 老客户专享套餐。无套餐直接使用会产生函数计算后付费订单,具体计费情况请参考计费概述。由于老客户专享额度不支持抵扣公网出流量和磁盘使用量的费用。如您未购买相关资源包,公网出流量使用量和超出512MB的磁盘使用量将计入按量付费。

Q2: 为什么我领取了试用额度,依然有小额计费?

本实验需要使用到“公网出流量”和“磁盘使用量”两个计费项,而试用额度不支持抵扣公网出流量和磁盘使用量的费用。如您未购买相关资源包,公网出流量使用量和超出512MB的磁盘使用量将计入按量付费。本体验涉及使用少量公网出流量和磁盘使用量,为了避免停机风险,请您确保账号中有至少1元余额”,具体计费情况请参考计费概述

本实验公网出流量使用量和超出512MB的磁盘使用量计费参考如下:

  • 免费额度外,函数计算费用还包含磁盘使用量公网出流量。
  • 当前应用磁盘使用量为512 MB,不需要支付费用
  • 同时加载前端页面,需要支付一定的公网出流量费用(0.5元/GB)。前端加载需要约1M流量(约 0.00049 元)。

说明:预估费用仅供参考,实际费用取决于图片大小、调用频率等多种因素,如需长期使用本服务,请仔细阅读函数计算(FC)资源使用费用,避免产生意料之外的费用;如仅为体验功能不做长期使用,请一定按照文档最后删除步骤,部署之后立即删除。

Q3:为什么实验需要开通内容安全服务? 根据相关部门的规定,企业和开发者使用生成式人工智能服务需配备相应的内容风险管理机制,因此在本次实验中,默认为您集成了阿里云内容安全检测服务,前往AIGC内容安全方案了解更多。

本实验涉及到使用内容安全的计费参考如下:0.0075元/每10条。

一、资源方式介绍

本实验支持开通免费试用、个人账户资源两种实验资源方式。

  • 建议首次开通函数计算用户选择开通免费试用
  • 函数计算老用户选择个人账户资源

在实验开始前,请您选择其中一种实验资源,单击确认开启实验

二、选择开通免费试用(函数计算首次开通用户)

新客户0元试用资源额度如下:

2023年04月06日20:00之后开通函数计算的用户,可0元享老客户专享套餐,有效期3个月,总价值150元。套餐限购1次,内含四个试用包:50万vCPU*秒 + 100万GB*秒 + 400万次函数调用 + 10万GB*秒GPU。

请注意:试用额度不支持抵扣公网出流量和磁盘使用量的费用。如您未购买相关资源包,公网出流量使用量和超出512 MB的磁盘使用量将计入按量付费。本体验涉及使用少量公网出流量和磁盘使用量,为了避免停机风险,请您确保账号中有至少1元余额”,具体计费情况请参考计费概述

  1. 在本实验页面下方卡片会展示本实验支持的试用规格,选择函数计算FC并单击立即试用

  1. 首次开通函数计算的新客户,可以在函数计算新客首购套餐页面,单击立即购买

  1. 前往内容审核按量付费开通页面,选中服务协议,单击立即开通

二、选择个人账户资源(无免费试用资格或函数计算老客户)

如果您没有免费试用资格或者在4月6日20:00前已开通函数计算服务,请您选择个人账户资源进行实验。

您有两种付费方式:

方式一:您可以直接使用函数计算后付费开始实验,计费标准详情请参考计费概述请您仔细阅读计费标准,防止有意料之外的付费。

方式二:本实验推荐您购买函数计算老客户专享套餐包,进行实验。额度如下:

2023年04月06日20:00之前开通函数计算的用户,可9.9元享老客户专享套餐,有效期3个月,总价值150元。套餐限购1次,内含四个试用包:50万vCPU*秒 + 100万GB*秒 + 400万次函数调用 + 10万GB*秒GPU。

请注意:试用额度不支持抵扣公网出流量和磁盘使用量的费用。如您未购买相关资源包,公网出流量使用量和超出512 MB的磁盘使用量将计入按量付费。本体验涉及使用少量公网出流量和磁盘使用量,为了避免停机风险,请您确保账号中有至少1元余额”,具体计费情况请参考计费概述

具体操作为:

  1. 前往函数计算管理控制台。在概览页面,单击老客户专享套餐

  1. 函数计算老客首购套餐页面,单击立即购买

  1. 前往内容审核按量付费开通页面,选中服务协议,单击立即开通

2. 创建应用

再次提醒本实验可领用下方卡片中的函数计算免费额度;首次开通函数计算的新客户,可以购买新客首购套餐;如您是函数计算老客户,可购买老客户专享套餐包(所有套餐包购买请查看第一步骤描述信息)。

请注意领用/购买套餐包进行实验,如选择后付费形式进行实验,请注意账户扣费。计费情况详情请参考计费概述

  1. 前往函数计算控制台
  2. 在左侧导航栏中,单击应用

注意:如果您之前使用过应用中心,在单击应用之后出现类似于下面的页面,此时您可以单击创建应用继续流程。

  1. 单击应用/创建应用之后,您可以看到应用列表

  1. 在应用页面,搜索并选择通义千问预体验,单击立即创建

  1. 创建应用页面,选择直接部署

  1. 此时还需要关注页面上角色名称部分,例如:

此时需要单击前往授权进行授权,授权完成可能会提示:

说明:如果您的角色名称已有相关权限,可忽略此步骤。

  1. 应用可支持部署地域为北京、杭州、上海、深圳,请选择任意一地域。

说明:如遇部署异常,特别是公共镜像拉取耗时长/失败问题,请切换其他地域重试。

  1. 完成之后,单击页面最下面的创建并部署默认环境

注意:部署应用之后会产生函数计算资源使用费用,计费情况详情请参考计费概述

  1. 基本信息页面,单击部署版本

  1. 在部署版本页面,请您耐心等待部署状态变为部署成功,在部署时您也可以查看日志观察应用部署情况。

说明:大约需要等待1~2分钟。

  1. 部署完成之后,返回到应用的基本信息页面。在基本信息页面,单击访问域名

  1. 返回如下页面,您就可以与通义千问对话啦。

3. 开始对话通义千问

您可以选择输入如下我们预置的问题,或者输入您自己的问题,与通义千问进行对话。每个阿里云账号将有30次对话额度。

给我一段转发/proxy路径下所有流量到www.aliyun.com的Nginx配置

4. 计费参考

小明使用函数计算部署了通义千问预体验大约要消耗多少函数计算资源呢?

函数计算配置:GPU8 GB、vCPU2核、内存4 GB、磁盘512 MB

进行一次对话的成本如下如下:

花费时间

CPU资源消耗

内存资源消耗

磁盘资源消耗

带宽资源消耗

费用累计

30s

(冷启动)

0.5 * 30= 15 vCPU-s

0.5 * 30= 15 GB-s

免费

1MB

15 vCPU-S*0.000127元 + 15 GB-S*0.0000127元 + (0.5元/1024*1) = 0.004298元

10s

(热启动)

0.5 * 10= 5 vCPU-s

0.5 * 10= 5 GB-s

免费

1MB

5 vCPU-S*0.000127元 + 5 GB-S*0.0000127元 + (0.5元/1024*1) = 0.001758元

假如小明0元购买了免费试用包,或老客专享资源包

资源包额度为:

  • vCPU试用额度:前50万vCPU*秒vCPU资源使用免费。
  • 内存试用额度:前100万GB*秒内存资源使用免费。
  • 函数调用试用额度:前400万次函数调用免费。
  • GPU试用额度:前10万GB*秒GPU资源使用免费。

那么小明在用完所有30次通义千问预体验额度时(连续对话只有首次冷启动,后续均为热启动),共花费:0.001758*29 + 0.004298*1 = 0.05528元

免费额度外,函数计算费用还包含磁盘使用量公网出流量

  • 当前应用磁盘使用量为512 MB,不需要支付费用。
  • 同时加载前端页面,需要支付一定的公网出流量费用(0.5元/GB)。前端加载需要约 1M 流量(约 0.00049 元)。

说明:预估费用仅供参考,实际费用与对话内容、调用频率等多种因素有关。

5. 释放函数资源

在实验完成之后,如果您需要长期使用,请忽略此步骤。如果您不需要长期使用,请按照如下步骤对资源进行释放。

  1. 应用页面,找到您部署的应用,单击右侧操作列下的删除

  1. 删除应用对话框中,选择我一确定资源删除的风险,依旧要删除上面已选择的资源,然后单击删除应用及所选资源

实验地址:https://developer.aliyun.com/adc/scenario/aed6fb72b0644a40a839740600507a88

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
4月前
|
监控 安全 数据安全/隐私保护
55_大模型部署:从云端到边缘的全场景实践
随着大型语言模型(LLM)技术的飞速发展,从实验室走向产业化应用已成为必然趋势。2025年,大模型部署不再局限于传统的云端集中式架构,而是向云端-边缘协同的分布式部署模式演进。这种转变不仅解决了纯云端部署在延迟、隐私和成本方面的痛点,还为大模型在各行业的广泛应用开辟了新的可能性。本文将深入剖析大模型部署的核心技术、架构设计、工程实践及最新进展,为企业和开发者提供从云端到边缘的全场景部署指南。
|
5月前
|
人工智能 云栖大会
2025云栖大会大模型应用开发与部署|门票申领
2025云栖大会大模型应用开发与部署门票申领
308 9
|
6月前
|
人机交互 API 开发工具
基于通义多模态大模型的实时音视频交互
Qwen-Omni是通义千问系列的全新多模态大模型,支持文本、图像、音频和视频的输入,并输出文本和音频。Omni-Realtime服务针对实时交互场景优化,提供低延迟的人机交互体验。
1218 23
|
4月前
|
缓存 API 调度
70_大模型服务部署技术对比:从框架到推理引擎
在2025年的大模型生态中,高效的服务部署技术已成为连接模型能力与实际应用的关键桥梁。随着大模型参数规模的不断扩大和应用场景的日益复杂,如何在有限的硬件资源下实现高性能、低延迟的推理服务,成为了所有大模型应用开发者面临的核心挑战。
|
4月前
|
人工智能 监控 安全
06_LLM安全与伦理:部署大模型的防护指南
随着大型语言模型(LLM)在各行业的广泛应用,其安全风险和伦理问题日益凸显。2025年,全球LLM市场规模已超过6400亿美元,年复合增长率达30.4%,但与之相伴的是安全威胁的复杂化和伦理挑战的多元化
|
5月前
|
算法 安全 开发者
大模型部署指南:从个人玩转到企业级应用,这4款工具必看!
本文介绍了五款主流大语言模型部署工具,帮助用户根据需求选择合适的方案。包括适合个人使用的 Ollama 和 LM Studio、优化低配设备运行的 llama.cpp、企业级部署的 vLLM,以及 Hugging Face 推出的 TGI 框架,覆盖从本地体验到高性能服务的多种场景。
|
7月前
|
数据采集 人工智能 自然语言处理
通义灵码支持 Qwen3-Coder,带你玩转 Agentic Coding,免费不限量
欢迎大家在通义灵码里免费体验最新 Qwen3-Coder 模型,一起 AI Coding。
|
6月前
|
XML 机器学习/深度学习 人工智能
利用OpenVINO™ 快速部署端侧可用的MiniCPM-V4.0视觉大模型
MiniCPM-V4.0是MiniCPM-V系列中最新的高效模型,参数总量为4B。该模型在 OpenCompass评测中图像理解能力超越了GPT-4.1-mini-20250414、Qwen2.5-VL-3B-Instruct和InternVL2.5-8B。凭借小巧的参数规模和高效的架构,MiniCPM-V4.0是移动端部署的理想选择。
330 0
|
6月前
|
人工智能 JavaScript 前端开发
​​大模型开发从入门到部署
本内容系统讲解大语言模型技术,涵盖BERT、GPT等主流架构,深入Transformer原理与自注意力机制,结合PyTorch实战,详解张量操作、自动求导与模型训练,并介绍RAG、Agent等典型应用场景,助你掌握AI核心技术。
746 0

热门文章

最新文章