Qwen2.5 的云端新体验,5 分钟完成极速部署

简介: Qwen2.5 的云端新体验,5 分钟完成极速部署

Qwen2.5 是通义千问团队开发的大规模语言和多模态系列模型,以其长文本处理能力、专业知识集成、大规模数据集预训练以及多语言处理等优势,为用户提供了快速、准确的响应,成为企业智能化转型的有效工具。


将 Qwen2.5 模型部署于函数计算 FC,用户能依据业务需求调整资源配置,有效应对高并发场景,并通过优化资源配置,如调整实例规格、多 GPU 部署和模型量化来提升推理速度。此外,函数计算支持多样化 GPU 计费模式(按需计费、阶梯定价、极速模式),可根据业务需求调整,在面对高频请求和大规模数据处理时,能够显著降低综合成本。


有奖体验进行中!

使用函数计算 FC 一键部署 Qwen2.5 模型,完成 Ollama 和 Open WebUI 两个应用,两步赢蛇年对联!

活动时间:2024.12.23 00:00:00-2025.01.10 16:00:00

立即体验:https://developer.aliyun.com/topic/dec/fcqwen


适用客户

  • 对 AI 的深度理解、多领域知识集成、高效指令执行及多语言支持有高要求的客户
  • 期望通过可控的云服务资源配置,确保高效的模型推理和低延迟响应的企业


使用产品

  • 函数计算 FC


方案概览


本方案旨在介绍如何将 Qwen2.5 开源模型部署到函数计算 FC。通过函数计算 FC 部署 Ollama 和 Open WebUI 两个应用。Ollama 是一个负责托管 Qwen2.5 模型的应用程序,它为用户提供了多种参数规模的模型选择,并通过 Open WebUI 提供友好的交互界面,以便用户能够轻松地进行AI模型的部署和使用。方案提供的镜像预置了 1.5B、3B、7B 三种不同参数规模供用户选择,Open WebUI 则为用户提供友好的交互界面。


借助函数计算 FC,用户可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。函数计算 FC 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。


实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。



本方案的技术架构包括以下云服务:
  • 函数计算 FC:全托管的 Serverless 计算服务,用于部署模型服务与 Web 应用。


部署模型


基于 Ollama 部署 Qwen2.5 模型

我们将部署 Ollama 应用以提供模型服务。Ollama 是一个便捷的模型部署和管理工具,帮助开发者高效托管和服务化模型,便于快速集成 AI 能力。


1. 点击 Ollama 模板链接[1],访问创建 Ollama 应用页面。

2. 当前应用模板提供了 Qwen2.5 模型 1.5B、3B 和 7B 三种不同参数规模的版本,可以在模型名称下拉列表中按需选择。



3. 其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如下图所示。



Open WebUI 调用 Qwen2.5 模型

Open WebUI 是一个开源项目,提供了管理和操作模型的图形界面。


1. 点击 Open WebUI 模板链接[2],访问创建 Open WebUI 应用页面。

2. 在高级配置 > 地域下拉列表中选择应用所属地域。


警告:确保所选地域与 Ollama 应用创建时所选的地域一致。



3. 应用模板中提供了开启鉴权的选项,建议在生产环境开启,以增加安全性,防止未经授权的访问。



4. Ollama 接口地址填入 Ollama 应用的内网访问地址。



说明:Ollama 应用内网访问地址获取方式:


a. 打开函数计算 FC 应用[3]页面,找到 Ollama 应用,点击应用名称进入应用详情。



b. 在应用详情页找到函数资源,点击函数名称进入函数详情页。



c. 鼠标移至 HTTP 触发器,在展开的信息中复制内网访问地址


5. 其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如下图所示。



6. Open WebUI 应用部署完毕后,点击访问域名



7. 首次打开需要完成实例的创建和模型的部署,请等待 3-5 分钟。


应用体验


一、使用 Open WebUI 调用 Qwen2.5 模型

1. 登录 Open WebUI 后,点击 Select a model,在展开的下拉列表中选择 Qwen2.5 模型。如果在下拉列表中未显示可用的模型,请尝试刷新页面以更新列表。



2. 可以在对话框中与系统进行交互,调用模型服务获得相应的响应。



3. Qwen2.5 模型具备支持超过 29 种语言的能力,例如能够用法语进行自我介绍。



4. 由于融入了领域专业专家模型,Qwen2.5 的知识广度和在编码与数学领域的能力都显著提升。我们可以提出一道数学题,Qwen2.5 能够给出正确的解答。



5. 点击 图标,选择本地文档上传,可以使用我们提供的“百炼”手机详细参数.docx[4]



6. 针对当前文档撰写提示词“总结文档内容”。



7. 可以看到 Qwen2.5 模型成功提炼出了文档的关键信息。



说明:Open WebUI 中文设置:

1. 点击右上角 图标,在展开的下拉列表中选择 Settings



2. 在 Settings 弹窗中,选择 General > Language



3. 在展开的下拉列表中找到并点击 Chinese(简体中文)



4. 页面会自动刷新,此时 Open WebUI 的界面语言已切换为简体中文,点击保存按钮后关闭弹窗。



二、函数计算 FC 自动扩缩容机制

1. 回到 Ollama 函数详情页,点击实例标签,如果当前实例列表为空,可以点击 图标刷新列表。



2. 实例列表中可以看到 Ollama 函数实例的数量发生了变化。这是因为函数计算 FC 会根据函数调用量自动扩缩容,调用增加时创建实例,请求减少后若实例空闲超过一定时间(通常 3-5 分钟),则自动销毁以节约资源。这种动态扩缩容的机制不仅提高了资源利用率,还降低了运行成本,使开发者能够专注于业务逻辑,而无需担心底层基础设施的管理。



相关链接:

[1] Ollama 模板链接

https://fcnext.console.aliyun.com/applications/create?template=ollama-qwen2_5&deployType=template-direct&from=solution

[2] Open WebUI 模板链接

https://fcnext.console.aliyun.com/applications/create?template=fc-open-webui&deployType=template-direct

[3] 函数计算 FC 应用

https://fcnext.console.aliyun.com/applications

[4] “百炼”手机详细参数.docx

https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20240701/geijms/%E7%99%BE%E7%82%BC%E7%B3%BB%E5%88%97%E6%89%8B%E6%9C%BA%E4%BA%A7%E5%93%81%E4%BB%8B%E7%BB%8D.docx

相关文章
|
3月前
|
人工智能 运维 Serverless
0 代码,一键部署 Qwen3
依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。
|
4月前
|
人工智能 并行计算 持续交付
如何使用龙蜥衍生版KOS,2步实现大模型训练环境部署
大幅降低了用户开发和应用大模型的技术门槛。
|
4月前
|
人工智能 弹性计算 自然语言处理
从0到1部署大模型,计算巢模型市场让小白秒变专家
阿里云计算巢模型市场依托阿里云弹性计算资源,支持私有化部署,集成通义千问、通义万象、Stable Diffusion等领先AI模型,覆盖大语言模型、文生图、多模态、文生视频等场景。模型部署在用户云账号下,30分钟极速上线,保障数据安全与权限自主控制,适用于企业级私有部署及快速原型验证场景。
|
4月前
|
数据采集 机器学习/深度学习 搜索推荐
利用通义大模型构建个性化推荐系统——从数据预处理到实时API部署
本文详细介绍了基于通义大模型构建个性化推荐系统的全流程,涵盖数据预处理、模型微调、实时部署及效果优化。通过采用Qwen-72B结合LoRA技术,实现电商场景下CTR提升58%,GMV增长12.7%。文章分析了特征工程、多任务学习和性能调优的关键步骤,并探讨内存优化与蒸馏实践。最后总结了大模型在推荐系统中的适用场景与局限性,提出未来向MoE架构和因果推断方向演进的建议。
630 10
|
4月前
|
存储 文字识别 自然语言处理
通义大模型在文档自动化处理中的高效部署指南(OCR集成与批量处理优化)
本文深入探讨了通义大模型在文档自动化处理中的应用,重点解决传统OCR识别精度低、效率瓶颈等问题。通过多模态编码与跨模态融合技术,通义大模型实现了高精度的文本检测与版面分析。文章详细介绍了OCR集成流程、批量处理优化策略及实战案例,展示了动态批处理和分布式架构带来的性能提升。实验结果表明,优化后系统处理速度可达210页/分钟,准确率达96.8%,单文档延迟降至0.3秒,为文档处理领域提供了高效解决方案。
480 0
|
15天前
|
缓存 API 调度
70_大模型服务部署技术对比:从框架到推理引擎
在2025年的大模型生态中,高效的服务部署技术已成为连接模型能力与实际应用的关键桥梁。随着大模型参数规模的不断扩大和应用场景的日益复杂,如何在有限的硬件资源下实现高性能、低延迟的推理服务,成为了所有大模型应用开发者面临的核心挑战。
|
15天前
|
监控 安全 数据安全/隐私保护
55_大模型部署:从云端到边缘的全场景实践
随着大型语言模型(LLM)技术的飞速发展,从实验室走向产业化应用已成为必然趋势。2025年,大模型部署不再局限于传统的云端集中式架构,而是向云端-边缘协同的分布式部署模式演进。这种转变不仅解决了纯云端部署在延迟、隐私和成本方面的痛点,还为大模型在各行业的广泛应用开辟了新的可能性。本文将深入剖析大模型部署的核心技术、架构设计、工程实践及最新进展,为企业和开发者提供从云端到边缘的全场景部署指南。
|
15天前
|
人工智能 监控 安全
06_LLM安全与伦理:部署大模型的防护指南
随着大型语言模型(LLM)在各行业的广泛应用,其安全风险和伦理问题日益凸显。2025年,全球LLM市场规模已超过6400亿美元,年复合增长率达30.4%,但与之相伴的是安全威胁的复杂化和伦理挑战的多元化
|
1月前
|
人工智能 云栖大会
2025云栖大会大模型应用开发与部署|门票申领
2025云栖大会大模型应用开发与部署门票申领
120 1

热门文章

最新文章