DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。
本方案涵盖云上调用满血版 DeepSeek 的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可部署实现。
解决方案链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
通过百炼调用满血版 API 或在云上部署专属 DeepSeek 模型,有如下几个优点:
1、满血版 DeepSeek 开通即可调用
百炼提供了 DeepSeek 模型调用的 API,其中 DeepSeek-R1 与 DeepSeek-V3 分别有 100万 的免费 token,另有多款开源 Qwen 及 Llama 蒸馏模型支持调用。
2、部署效率与易用性
云端部署无需复杂的环境配置和硬件搭建,简单几步,最快 10 分钟就能快速实现不同尺寸的 DeepSeek 模型部署和应用。
3、算力需求与成本优化
云端部署提供了弹性、充足的算力支持,同时相比本地部署需要购买和维护昂贵的 GPU 硬件,云端部署按需付费的模式可以显著降低硬件成本。
4、唾手可得的创新资源
云端部署支持快速迭代和优化,开发者可以利用云平台提供的工具和资源,快速进行模型训练、调优和更新,加速创新。
首先是满血版 API 调用:基于百炼调用 DeepSeek-R1 满血版 API,享100万免费token
方案架构
按照本方案提供的配置完成后,会在本地搭建一个如下图所示的运行环境。
本方案的技术架构包括以下云服务:
百炼模型服务:支持通过 OpenAI SDK 或 OpenAI 兼容的 HTTP 方式快速体验 DeepSeek 模型。
一、获取百炼 API-KEY
1、登录阿里云百炼大模型服务平台。
2、鼠标悬停于页面右上角的image图标上,在下拉菜单中单击API-KEY。
3、在左侧导航栏,选择全部API-KEY或我的API-KEY,然后创建或查看 API-KEY,最后复制 API-KEY 以便在下一步骤中使用。
二、使用 Chatbox 客户端配置 百炼 API 进行对话
1、访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例。
2、运行并配置百炼 API ,单击设置。
3、在弹出的看板中按照如下表格进行配置。
4、最终配置如下图所示,然后单击保存。
5、在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
二、人工智能平台 PAI 部署 DeepSeek-R1 模型
方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
本方案的技术架构包括以下云服务:
1、Model Gallery :人工智能平台 PAI 的一个组件,集成了众多 AI 领域高质量的预训练模型。
2、PAI-EAS :人工智能平台 PAI 的一个组件,针对在线推理场景提供的模型在线服务,采用基于按量付费的 GPU 公共资源组。
部署 DeepSeek-R1 模型
Model Gallery 集成了众多AI开源社区中优质的预训练模型,方便用户快速选择和应用所需模型。在Model Gallery 中选中合适的模型并点击部署,系统将触发 PAI-EAS 的部署流程。PAI-EAS 支持将模型服务部署在公共资源组或专属资源组,实现基于异构硬件(如 CPU 和 GPU )的模型加载和数据请求的实时响应。
1、登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮。
2、开通成功后,点击进入控制台按钮。
3、在工作空间页面的左侧导航栏选择 Model Gallery 。
4、在搜索框中输入DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B。
5、点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮。
6、在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30。
说明
如果当前地域的资源不足,您还可以选择 V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)类型的资源规格
7、其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮。
image
8、部署完成后,如下图所示。
9、单击查看调用信息,在弹出的看板中选择公网地址调用,复制保存访问地址和 Token 。
二、PAI-EAS 管理模型服务
1、点击PAI 控制台左侧导航栏中的模型在线服务 (EAS)可以看到当前部署的服务。
2、点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
第三个,蒸馏版模型部署
可结合自身业务需求,灵活选择专属 DeepSeek 的部署方式
方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
本方案的技术架构包括以下云服务:
1 个云原生应用开发平台 CAP 项目:全托管的 Serverless 计算服务,用于部署模型服务与 Web 应用。
1 个文件存储 NAS:存储 DeepSeek-R1 开源模型。
一、部署 DeepSeek-R1 模型
请点击前往部署打开我们提供的云原生应用开发平台 CAP 项目模板,本方案地域以华北2(北京)为例,其他参数选择默认配置,直接单击部署项目,最后在弹出面板中单击确认部署,部署预计等待 10~12 分钟。
说明
首次使用云原生应用开放平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
部署完成后,类似下图所示。
一、访问示例应用
应用部署完成之后按照下图找到访问地址。
点击访问地址,即可打开示例应用。
二、与模型对话
在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
三、修改 Ollama 模型服务配置(可选)
按照下图所示,通过修改模型服务预留实例数的配置,来实现实例伸缩。
总结:1、部署文档的步骤指引准确。
2、在部署体验过程中得到足够的引导以及文档帮助。
3、DeepSeek方案描述和优势清晰。