测评报告:零门槛、轻松部署您的专属 DeepSeek 模型
解决方案链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
引言
DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。但是由于算力资源限制,DeepSeek官方提供的服务支持不稳定,如下图所示,显示“服务器繁忙,请稍后再试”。
因此阿里云提供了云上调用满血版 DeepSeek 的 API 及部署各尺寸模型解决方案,阿里云官方介绍该方案无需编码,最快 5 分钟、最低 0 元即可部署实现。
今天对该方案进行测评,并形成初步测评报告。
四种部署方案
基于百炼调用满血版 API: 百炼模型服务API+ Chatbox 可视化界面客户端。
基于人工智能平台PAI部署: DeepSeek-R1-Distill-Qwen-7B +人工智能平台 PAI 的 Model Gallery+PAI-DSW(可选)+ PAI-DLC (可选)。适用于需要一键部署,同时需要推理加速、支持并发的用户。
基于函数计算部署: lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF+云原生应用开发平台 CAP + Ollama FC函数+Open WebUI FC函数。适用于需要一键部署,不关注运维、按量付费的用户。
基于GPU 云服务器部署: GPU 云服务器+ vLLM +Open WebUI+DeepSeek-R1-Distill-Qwen-7B (可调整参数规模)。适用于对模型推理速度有高要求,具备运维能力的用户。
评测内容
1. 部署文档的步骤指引准确性及问题反馈
在部署过程中,文档的步骤指引总体清晰,能够帮助用户快速上手。然而,在实际操作中,我遇到了一些问题:
- 问题1:在配置函数计算服务时,文档中提到部署时间需要10-12分钟,实际仅仅需要6分钟时间进行部署。
2. 部署体验中的引导与文档帮助
总体而言,文档提供了较为详细的部署步骤,但在某些关键环节仍存在不足:
- 建议1:在方式2基于人工智能PAI平台的模型部署部分,点击模型部署之后,会进入选择工作空间选择和创建页面选项,在文档中未对这部分进行描述,建议增加这部分描述。
- 建议2:在方式4基于GPU的部署模型部分,建议添加预估时间,或者调整7B模型为1.5B模型,下载模型需要较长时间,不建议以这个模型作为演示,个人测试这么模型下载及部署需要40分钟,对于用户快速验证方案可行性不友好。
3. DeepSeek 多种使用方式的理解与反馈
文档中对 DeepSeek 的多种使用方式进行了较为详细的描述,但在某些方面仍存在疑惑:
- 疑惑1:文档中提到的“零门槛”部署,实际体验中发现仍需要一定的技术背景,建议在文档中明确说明所需的技术基础。
4. 最适合的 DeepSeek 使用方式
在体验了四种使用方式后,我认为 PAI 人工智能平台 是最适合我的使用方式,理由如下:
- 灵活性:可以轻松集成到现有系统中。
- 易用性:可以快速微调和优化模型。
5. 解决方案的满足度与改进建议
总体而言,本解决方案能够满足我的基本需求,但在以下方面仍有改进空间:
不足1:方式一通过API调用的方式,实际token的返回速度非常慢,影响用户体验,基本不可用。
不足2:方式三通过函数FC方式,在云原生应用开发平台 CAP 中部署项目时,需要等待 10~12 分钟,部署时间长。
- 不足3:方式四通过GPU部署方式,模型下载部署需要40分钟+,而且成本高。
结论:我不太愿意采用本方案来使用 DeepSeek 模型,但是愿意采用人工智能PAI平台进行模型开发和部署测试,但希望能够在文档和部署流程和费用方面上进一步优化,以提升用户体验。