DeepSeek模型部署全过程实践,轻松上手就在阿里云

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括**基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署**。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。

引言

随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。
解决方案链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
csdn评测报告链接:https://blog.csdn.net/weixin_44383927/article/details/145598257?sharetype=blogdetail&sharerId=145598257&sharerefer=PC&sharesource=weixin_44383927&spm=1011.2480.3001.8118


一.基于百炼 API 调用满血版:

方案概览
本方案以 DeepSeek-R1 满血版为例进行演示,通过百炼模型服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。百炼平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。搭配 Chatbox 可视化界面客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。

方案架构
按照本方案提供的配置完成后,会在本地搭建一个如下图所示的运行环境。
0001.png

一.在部署本方案开始时,首先要登录阿里云百炼大模型服务平台获取API-KEY(这里获取方法我就不赘述了,看下吗截图):

0001.png

二、使用 Chatbox 客户端配置 百炼 API 进行对话:

1.访问 Chatbox (下载地址:https://chatboxai.app/zh) 下载并安装客户端,本方案以 windows 为例。
0001.png
2.点击下载按钮,选择下载目录后进行下载:
0001.png
3.双击“Chatbox-1.9.8-Setup.exe”进行安装,注意安装路径。
0001.png
4.安装好后直接运行Chatbox,这里我们选择“使用自己的APl Key 或本地模型”。
0001.png
5.进行参数配置:
0002.png
参数内容可以参考我下面的截图内容:
0001.png
6.完成配置后,我们就可以在输入框进行测试了,如下图:
0001.png

基于百炼 API 调用满血版,是不是超级简单?!

二.基于人工智能平台 PAl 部署:

将 DeepSeek-R1 开源模型部署到人工智能平台 PAI。
人工智能平台 PAI 为 AI 研发提供了全链路支持,覆盖了从数据标注、模型开发、训练、评估、部署和运维管控的整个AI研发生命周期。其中,Model Gallery 组件提供了一个丰富多样的模型资源库,使用户能够轻松地查找、部署、训练和评估模型,大大简化了开发流程。PAI-EAS 则提供了高性能的模型推理服务,支持多种异构计算资源,并配备了一套完整的运维和监控系统,确保服务的稳定性和高效性。方案以 DeepSeek-R1-Distill-Qwen-7B 为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。用户还可以使用 PAI-DSW 和 PAI-DLC 进行模型的微调训练,以便更好地满足特定业务场景的需求,进一步提高模型的性能、准确性和适用性。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
0001.png
1.登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮。已开通的可以跳过此步骤。
0001.png
2.进入控制台后,在工作空间页面的左侧导航栏选择 Model Gallery,在搜索框中输入DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B。
0001.png
3.点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮。
0001.png
4.在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30
0001.png
0001.png
其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮即可。

5.完成部署后,将会如下图显示“运行中”。(部署等待时间可能有点长,可以起来先喝口茶,哈哈)
0001.png
6.单击查看调用信息
0001.png
在弹出的看板中选择公网地址调用,复制保存访问地址和 Token
0001.png
7.接下来我们就可以使用 Chatbox 客户端配置 vLLM API 进行对话。前面在上文中我已经介绍过如何安装Chatbox 客户端了,这里就不重复了。(点击【设置】,然后点击【添加自定义提供方】)
0002.png
在弹出的看板中按照如下表格进行配置。
0001.png
完成配置后,配置项如下图所示:
0001.png
8.接下来我们就可以测试验证配置啦,在输入框输入问题即可。
0001.png
另外补充说明下,在PAI 控制台点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
0001.png

相对“基于百炼 API 调用满血版”这里步骤稍多点,但是性能方面无可厚非哈。


三.基于函数计算部署:

将 DeepSeek-R1 开源模型部署到函数计算 FC 。通过云原生应用开发平台 CAP 部署 Ollama 和Open WebUI 两个 FC 函数。Ollama 负责托管 lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF 模型,它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。Open WebUI 则为用户提供友好的交互界面。借助 CAP,用户可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。同时 CAP 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

0001.png
1.部署 DeepSeek-R1 模型,首先我们根据实验手册进行一键部署(函数计算FC一直以来都是我非常喜欢的功能,重在快捷方便,就是有时候部署时间有点长,部署过程可以站起来运动运动),步骤非常简单:
0001.png
部署完成后,类似下图所示。
0001.png
2.完成部署后,按照下图找到访问地址。
0001.png

3.进入访问地址,你就可以和模型进行对话咯,在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
0001.png

当然你也同样可以使用 Chatbox 客户端配置 Ollama API 进行对话,这里操作流程和配置方法我上面也都举例过,这里就不重复了。(配置参数我发大家看下)
0001.png


四.基于 GPU 云服务器部署:

将 DeepSeek-R1 开源模型部署到 GPU 云服务器。在 GPU 云服务器上安装与配置 Ollama 和 Open WebUI。Ollama 负责托管 DeepSeek-R1 模型,Open WebUI 则为用户提供友好的交互界面。GPU 云服务器凭借其高性能并行计算架构,可以显著加速大模型的推理过程,特别是在处理大规模数据和高并发场景,可以有效提升推理速度和推理吞吐。专有网络 VPC 和交换机用于资源隔离和安全管理,确保数据传输的安全性和网络的高可靠性。方案以 DeepSeek-R1-Distill-Qwen-7B为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
0001.png
1.创建专有网络 VPC 和交换机:根据我下图的配置参数进行创建配置:
0001.png
2.创建安全组:根据我下图的配置参数进行创建配置:0001.png
3.创建 GPU 云服务器:根据我下图的配置参数进行创建配置:
0001.png
0001.png
4.登录服务器:
4.1登录 ECS管理控制台。
4.2在左侧导航栏,选择实例与镜像>实例。
4.3在顶部菜单栏,选择华东1(杭州)地域。
4.4部署示例应用程序。
a.在实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
b.在远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
4.5输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
4.6如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启。
0001.png
5.部署 Ollama:
5.1.执行以下命令部署 Ollama 模型服务。

curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/ollama_install.sh|sh

5.2如下图所示,说明 Ollama 部署完成。
0001.png
5.3执行以下命令拉取模型。

ollama pull deepseek-r1:7b

0001.png

5.4执行以下命令,运行模型,运行成功后,在键盘上敲击两次回车键。

ollama run deepseek-r1:7b &

6.部署 Open WebUI:

6.1执行以下命令部署 Open WebUI 应用。

curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/install.sh|sh

6.2部署完成后,可以看到控制台中输出Installation completed。
7.访问示例应用,在浏览器中访问http://:8080,访问 Open WebUI。
0001.png
8.接下来就可以与模型对话了。在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
0001.png

至此,我们四个实验就都已经完成了操作和体验。


1. 部署文档步骤指引的准确性

评测结果:

在阅读并实际操作了阿里云提供的部署文档后,整体感觉文档的步骤指引相对清晰且准确。以下是具体的操作体验:

  • 基于百炼 API 调用满血版:通过 API 网关调用 DeepSeek 模型非常直观,API 文档中详细列出了所有必要的参数和返回值,便于开发者快速上手。

  • 基于人工智能平台 PAl 部署:PAl 平台提供了图形化的界面,使得整个部署过程更加友好。尽管如此,在配置环境变量时遇到了一些小问题,主要是因为某些默认值与实际需求不符,导致需要手动调整。

  • 基于函数计算部署:函数计算的部署流程较为顺畅,但在创建服务时,发现部分选项描述不够明确,比如有超链一键部署,但是没有把链接放出来,不通过实验手册自己手动配置可能需要花点时间。

  • 基于 GPU 云服务器部署:GPU 云服务器的部署相对复杂,主要涉及到系统镜像的选择等,不能选错。虽然文档中有详细的说明,但仍然建议提供一个预装好环境的镜像以简化操作。

改进建议:

  • 增加更多常见问题的解答,特别是在涉及环境变量配置的部分。
  • 提供更详细的内存和超时时间配置建议,帮助用户更好地理解不同场景下的最佳实践。

2. 文档引导与帮助的充分性

评测结果:

在整个部署过程中,阿里云提供的文档和帮助资源基本能够满足需求,但在某些环节仍需进一步优化。

  • 基于百炼 API 调用满血版:API 文档非常详尽,每个接口都有示例代码和详细的解释,极大地降低了学习成本。

  • 基于人工智能平台 PAl 部署:PAl 平台的图形化界面友好,但在某些高级功能(如自定义插件)的使用上,文档略显不足,导致需要额外搜索其他资料。

  • 基于函数计算部署:函数计算的文档较为全面,但在调试过程中,发现日志输出不够详细,有时难以定位具体问题。另外函数部署的配置未放出来。

  • 基于 GPU 云服务器部署:GPU 云服务器的文档涵盖了大部分关键步骤,但对于一些特定硬件配置的细节描述不够深入,可能会给新手带来困扰。

改进建议:

  • 在 PAl 平台上增加更多关于高级功能的使用指南,尤其是针对自定义插件的开发和集成。
  • 函数计算的日志系统可以进一步增强,提供更多详细的调试信息。
  • 对于 GPU 云服务器,建议提供一个预配置好的环境镜像,并附带详细的硬件兼容性列表。

3. 多种使用方式的理解程度与方案描述

评测结果:

阿里云提供的四种部署方式各有优势,但在初次接触时,确实需要一定的时间去理解和消化。

  • 基于百炼 API 调用满血版:这种方式最为简便,适合快速集成到现有应用中。文档中对 API 的描述清晰,易于理解。

  • 基于人工智能平台 PAl 部署:PAl 平台的优势在于其强大的可视化工具和丰富的插件库,但需要一定的学习曲线,特别是对于不熟悉该平台的用户。

  • 基于函数计算部署:函数计算的方式非常适合无服务器架构的应用场景,但需要对 AWS Lambda 或类似的服务有一定了解才能充分利用其优势。

  • 基于 GPU 云服务器部署:这种方式提供了最大的灵活性和性能,但同时也要求用户具备较强的系统管理和运维能力。

疑惑与反馈:

  • 在 PAl 平台上,希望看到更多关于模型训练和优化的具体案例,帮助用户更好地理解如何利用该平台提升模型效果。
  • 函数计算的计费模式较为复杂,建议提供一个简明易懂的费用计算器,帮助用户估算成本。

4. 推荐的最佳使用方式

推荐方式:基于百炼 API 调用满血版

推荐理由:

  • 简单快捷:无需复杂的配置和环境搭建,几分钟内即可完成集成。
  • 高可用性:阿里云提供的 API 服务具有高可靠性和低延迟,确保模型响应速度。
  • 灵活扩展:可以根据实际需求动态调整 API 请求量,适应不同规模的应用场景。

个人体验:
在实际项目中,我选择了基于百炼 API 调用满血版的方式进行集成。这种方式不仅大大缩短了开发周期,还显著提升了系统的稳定性和性能。尤其是在处理大量并发请求时,API 服务的表现令人满意。


5. 实际需求匹配度与采用意愿

评测结果:

阿里云提供的 DeepSeek 模型使用方式基本满足了我的实际需求,尤其是在快速集成和高性能方面表现出色。然而,仍有改进空间:

  • 基于百炼 API 调用满血版:完全满足了我的需求,特别是在快速上线和低成本维护方面表现优异。

  • 基于人工智能平台 PAl 部署:虽然功能强大,但对于小型项目来说显得有些冗余,更适合大规模企业级应用。

  • 基于函数计算部署:适合无服务器架构的应用场景,但计费模式和调试难度较高,限制了其广泛应用。

  • 基于 GPU 云服务器部署:提供了最大的灵活性和性能,但较高的技术门槛和运维成本使其更适合专业团队使用。

是否愿意采用:
我会选择继续采用基于百炼 API 调用满血版的方式来使用 DeepSeek 模型,因为它在满足需求的同时,最大限度地降低了开发和维护成本。然而,对于一些特定的高性能需求场景,我也会考虑基于 GPU 云服务器的部署方式。

改进建议:

  • 进一步简化 GPU 云服务器的部署流程,提供更多的自动化工具和预配置镜像。
  • 函数计算的计费模式可以更加透明,提供详细的费用估算工具,帮助用户更好地控制成本。

阿里云的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种灵活的部署方式,适用于不同的应用场景和技术水平。通过本次评测,我认为基于百炼 API 调用满血版的方式最适合大多数用户的需求,同时希望阿里云能够在文档完善和技术支持方面持续改进,为用户提供更好的使用体验。如果你正在寻找一种高效、可靠的深度学习模型部署方案,阿里云的 DeepSeek 解决方案值得尝试。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
4月前
|
人工智能 并行计算 安全
从零到一,打造专属AI王国!大模型私有化部署全攻略,手把手教你搭建、优化与安全设置
【10月更文挑战第24天】本文详细介绍从零开始的大模型私有化部署流程,涵盖需求分析、环境搭建、模型准备、模型部署、性能优化和安全设置六个关键步骤,并提供相应的示例代码,确保企业能够高效、安全地将大型AI模型部署在本地或私有云上。
1578 7
|
5天前
|
自然语言处理 运维 API
深度测评:零门槛部署 DeepSeek 模型解决方案
本文全面评测了阿里云的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案。从部署文档的指引准确性到实际使用体验,方案在灵活性和便捷性上表现出色,尤其适合通过 API 快速集成模型能力的场景。然而,部署过程中存在部分细节说明不足的问题,如网络配置和数据安全保障机制需进一步完善。此外,成本透明度仍有提升空间。总体而言,该方案为快速实现模型应用提供了良好支持,但仍需优化以满足更高需求。
133 83
|
1月前
|
机器学习/深度学习 人工智能 开发者
阿里云支持DeepSeek-V3和DeepSeek-R1全自动安装部署,小白也能轻松上手!
阿里云PAI平台支持DeepSeek-V3和DeepSeek-R1大模型的全自动安装部署,零代码一键完成从训练到推理的全流程。用户只需开通PAI服务,在Model Gallery中选择所需模型并点击部署,即可快速生成PAI-EAS服务,获取调用信息。整个过程简单快捷,适合各水平开发者轻松上手。
2579 80
|
10天前
|
机器学习/深度学习 物联网 PyTorch
小白避坑指南:国内用Colossal-AI微调DeepSeek 1.5B的完整踩坑记录(附镜像加速方案)
本文详细记录了使用Colossal-Ai对DeepSeek-Qwen模型进行微调的过程,包括模型下载、环境部署、数据集处理及代码实现等环节。重点介绍了LoRA低秩适配方法和Colossal-Ai分布式训练框架的使用技巧,解决了模型封装后函数调用冲突、梯度检查点配置等问题。通过命令行参数灵活调整训练配置,最终在两块A100 GPU上完成训练,单卡显存占用约11GB,利用率达85%。文章总结了常见问题及解决方法,为后续研究提供参考。
83 15
小白避坑指南:国内用Colossal-AI微调DeepSeek 1.5B的完整踩坑记录(附镜像加速方案)
|
1月前
|
人工智能 Linux API
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。
2022 19
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
|
15天前
|
人工智能 JavaScript 前端开发
【最佳实践系列】AI程序员让我变成全栈:基于阿里云百炼DeepSeek的跨语言公告系统实战
本文介绍了如何在Java开发中通过跨语言编程,利用阿里云百炼服务平台的DeepSeek大模型生成公告内容,并将其嵌入前端页面。
|
1月前
|
人工智能 自然语言处理 数据可视化
零门槛,轻松体验阿里云 DeepSeek-R1 满血版:快速部署,立享超强推理能力
DeepSeek-R1 是阿里云推出的先进推理模型,专为解决复杂任务设计,尤其在数学推理、代码生成与修复、自然语言处理等领域表现出色。通过阿里云的“零门槛”解决方案,用户无需编写代码即可快速部署 DeepSeek-R1,大幅简化了部署流程并提升了使用效率。该方案提供了详尽的文档和可视化界面,使开发者能轻松上手。DeepSeek-R1 支持多种模型尺寸,适用于不同场景,如智能客服、代码自动化生成、数学问题求解和跨领域知识推理。尽管存在对高自定义需求支持有限、云端依赖性等不足,但对于希望快速验证模型效果的用户而言,阿里云的这一解决方案仍然是高效且经济的选择。
2028 31
|
1月前
|
人工智能 数据可视化 搜索推荐
免费+数据安全!手把手教你在PC跑DeepSeek-R1大模型,小白也能秒变AI大神!
本地部署AI模型(如DeepSeek R1)保障数据隐私、节省成本且易于控制,通过Ollama平台便捷安装与运行,结合可视化工具(如Chatbox)及Python代码调用,实现高效、个性化的AI应用开发与使用。
212 3
免费+数据安全!手把手教你在PC跑DeepSeek-R1大模型,小白也能秒变AI大神!
|
26天前
|
机器学习/深度学习 监控 API
本地部署DeepSeek模型技术指南
DeepSeek模型是一种先进的深度学习模型,广泛应用于自然语言处理等领域。本文详细指导如何在本地部署DeepSeek模型,涵盖环境准备(硬件和软件要求、依赖库安装)、模型下载与配置、部署(创建Flask应用、运行API)、优化(GPU加速、模型量化、ONNX Runtime)及监控维护等内容。通过本文,您将能够在本地成功部署并运行DeepSeek模型,确保其高效稳定。
|
27天前
|
自然语言处理 Prometheus 监控
基于DeepSeek的智能客服系统实战:从开发到部署
本文详细介绍如何将基于DeepSeek的智能客服系统从开发到部署,涵盖服务器选择、环境配置、代码部署及Web服务器设置。通过具体案例和代码示例,讲解系统上线步骤,并介绍使用Prometheus、Grafana等工具进行性能监控的方法。此外,针对高并发、API调用失败等常见问题提供解决方案,确保系统的稳定运行。最后强调数据安全与隐私保护的重要性,帮助读者全面掌握智能客服系统的部署与维护。

热门文章

最新文章