本文详细介绍如何将 QwQ-32B 开源模型部署到函数计算 FC(Function Compute),并通过云原生应用开发平台 CAP(Cloud Application Platform)实现 Ollama 和 Open WebUI 两个 FC 函数的部署。具体来说,Ollama 负责托管 QwQ-32B-GGUF 模型,而 Open WebUI 则用于提供用户界面,支持与模型的交互。
通过 CAP 平台,用户可以快速便捷地完成模型部署,无需担心底层资源管理和运维问题,从而能够专注于应用的创新和开发。CAP 提供了一个免运维的高效开发环境,具备弹性伸缩和高可用性,确保系统在负载变化时仍能保持稳定运行。此外,CAP 采用按量付费模式,用户只需为实际使用的资源付费,有效降低了资源闲置成本。
1.方案架构
本方案的技术架构包括以下云服务:
- 1 个云原生应用开发平台 CAP 项目:全托管的 Serverless 计算服务,用于部署模型服务与 Web 应用。
- 1 个文件存储 NAS:存储模型。
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境:
2.部署 QwQ-32B 模型
2.1准备账号
如果您还没有阿里云账号,请访问阿里云账号注册页面[1],根据页面提示完成注册。
1. 登录函数计算服务控制台[2],根据页面提示完成开通。
2. 开通后,登录函数计算服务控制台,完成阿里云服务授权。
费用说明
说明
函数计算提供的试用额度(链接[3]领取)和文件存储提供的试用额度(链接[4]领取)可以完全覆盖本教程所需资源消耗。
假设您未领取或免费试用额度已耗尽,预计体验费用将不超过 9 元/小时。实际使用中可能会因您调整实例数而导致费用有所变化,请以控制台显示的实际报价以及最终账单为准。
重要
在函数计算中创建的 GPU 函数,计费基于函数规格乘以实际运行时长。如果没有请求调用,仅收取闲置预留模式下的快照费用。
若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
2.2模型部署
1. 请点击前往部署[5]打开我们提供的云原生应用开发平台 CAP 项目模板,本方案地域以华北2(北京)为例,其他参数选择默认配置,直接单击部署项目,最后在弹出面板中单击确认部署,部署预计等待 10~12 分钟。
说明
首次使用云原生应用开放平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
2.部署完成后,类似下图所示。
2.3应用体验
一、访问示例应用
- 应用部署完成之后按照下图找到访问地址。
- 点击访问地址,即可打开示例应用。
二、与模型对话
在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
三、修改 Ollama 模型服务配置
按照下图所示,通过修改模型服务预留实例数的配置,来实现实例伸缩。
四、使用 Chatbox 客户端配置 Ollama API 进行对话
- 获取 API 接入地址,按照下图所示,复制访问地址。
2. 访问 Chatbox 下载地址[6]下载并安装客户端,本方案以 macOS M3 为例。
3.运行并配置 Ollama API ,单击设置。
4.下拉选择模型提供方Ollama API,填写 API 域名(步骤 1 中获取的访问地址),下拉选择模型cap-qwq:latest,最后单击保存。
5.在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
2.4清理资源
删除云原生应用开发平台 CAP 项目:
登录云原生应用开发平台 CAP 控制台[7],在左侧导航栏,选择项目,找到部署的目标项目,在操作列单击删除,然后根据页面提示删除项目。
参考链接:
来源 | 阿里云开发者公众号