前言:
解决方案链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
在大模型浪潮席卷而来的当下,人工智能正以前所未有的速度渗透进各行各业。对于开发者群体而言,这无疑是一场意义深远的变革。当下,缺乏AI相关应用开发经验或许尚可立足,但展望未来,一年之后,若仍在这一领域毫无建树,在职场上恐将举步维艰,面临求职困境。 对于AI领域的新手小白来说,急切需要解决两大关键问题:一是如何以最快捷的方式上手使用AI相关应用,快速踏入AI大门;二是怎样寻觅合适的业务场景,切实开展AI实践操作,积累宝贵经验。 值得庆幸的是,阿里云为广大开发者提供了丰富且优质的机会。在接下来的内容中,将深入剖析阿里云在AI领域的全方位布局,并详细介绍如何借助阿里云平台,实现云上调用满血版DeepSeek的API,以及部署各尺寸模型的具体方法。尤为引人瞩目的是,整个过程无需编写复杂代码,堪称简便高效,最快仅需5分钟,甚至最低0元成本,即可完成部署并投入使用,为AI小白们开辟了一条便捷的实践之路。
零门槛、拥有DeepSeek-R1操作步骤:
第一步:跳转地址:
第二步:选择免费体验按钮
部署准备,第一是阿里云的账户,我已经有了,现在需要登录阿里云的百炼大模型服务平台;
第三步:登录阿里云百炼大模型服务平台
地址:https://bailian.console.aliyun.com/?spm=a2c6h.28997786.0.0.57534fa4f1bHmH
第四步:创建apikey
创建成功;
第五步:下载chatbox,并且安装
设置这里踩了点坑,要严格按照这个配置才行
第六步:运行成功:
第七步:测试性能以及生成的内容
本次测试问题,消耗了2524个token
怪不得,现在送token都是百万级别的,一个问答就消耗了2千多的token,100万的token也就使用了500次的调用。
总结:
整个操作的流程非常的顺畅,大概花费了10分钟左右,最难的部分就是那个配置的部分,要严格的按照操作手册进行配置,否则的话就会显示连接 OpenAI API 失败。这通常是由于配置错误或 OpenAI API 账户问题。请检查您的设置并验证您的 OpenAI API 账户状态。
API Error: Status Code 429, {"error":{"message":"You exceeded your current requests list.","type":"limit_requests","param":null,"code":"limit_requests"},"request_id":"eccafc93-69ce-9485-bdf8-e1fa5eb904db"};
记得,有个医生说的看病没有效果的原因,最大的原因就是没有按照医生的要求进行按时、按量的吃药。小坑,希望后续同学操作的避免同样的错误。
基于人工智能平台PAI部署
第一步:点击立即部署
部署前需要注意:部署是需要成本的,大概需要15元,为了科学研究,这个钱不多,花了。
第二步:进入实际操作界面
https://www.aliyun.com/solution/tech-solution-deploy/2868642?spm=a2c4g.2868650.0.0.3ebc405bLFZVdY
引用上述知识:本方案旨在介绍如何将 DeepSeek-R1 开源模型部署到人工智能平台 PAI。人工智能平台 PAI 为 AI 研发提供了全链路支持,覆盖了从数据标注、模型开发、训练、评估、部署和运维管控的整个AI研发生命周期。其中,Model Gallery 组件提供了一个丰富多样的模型资源库,使用户能够轻松地查找、部署、训练和评估模型,大大简化了开发流程。PAI-EAS 则提供了高性能的模型推理服务,支持多种异构计算资源,并配备了一套完整的运维和监控系统,确保服务的稳定性和高效性。方案以 DeepSeek-R1-Distill-Qwen-7B
为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。用户还可以使用 PAI-DSW 和 PAI-DLC 进行模型的微调训练,以便更好地满足特定业务场景的需求,进一步提高模型的性能、准确性和适用性。
通过这个图形可以看到,最终搭建成功的一个架构图,主要分为三个部分,第一个部分:PAI-EAS,主要API接口,发送运行环境请求,进行模型的响应结果;第二个部分:EAS资源的示例,主要是推理的部分;第三个部分:开源模型库;
第三步:登录PAI平台
地址:https://pai.console.aliyun.com/?spm=a2c6h.28997786.0.0.3f5e5d5axY8okk
第四步:开通PAI服务
第五步:开通成功后,点击进入控制台按钮。
第六步:在工作空间页面的左侧导航栏选择 Model Gallery 。
在搜索框中输入DeepSeek-R1
,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B
。
点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮。
第七步:选择工作空间,点击确定。
在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30
。
说明
如果当前地域的资源不足,您还可以选择 V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)类型的资源规格
其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮。
第八步:部署完成后,如下图所示。
一、使用 Chatbox 客户端配置 vLLM API 进行对话
访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例。
运行并配置 vLLM API ,单击设置。
- 在弹出的看板中按照如下表格进行配置。
项目 |
说明 |
示例值 |
模型提供方 |
下拉选择模型提供方。 |
添加自定义提供方 |
名称 |
填写定义模型提供方名称。 |
PAI DeepSeek-R1 |
API 域名 |
填写模型服务调用地址。 |
前面步骤获取的调用信息,访问地址 |
API 路径 |
填写 API 路径。 |
/v1/chat/completions |
API 密钥 |
填写模型服务调用 API 密钥。 |
前面步骤获取的调用信息,Token |
模型 |
填写调用的模型。 |
DeepSeek-R1-Distill-Qwen-7B |
最终配置如下图所示,然后单击保存。
在文本输入框中可以进行对话交互。输入问题你是谁?
或者其他指令后,调用模型服务获得相应的响应。
第九步:释放资源
第一步:停止资源的处理
第二步:进行释放资源
删除等待几分钟之后,会报错,如下图:
重新刷新菜单,发现已经删除成功了
总结:
零门槛,拥有DeepSeek-R1的评测,整个流程比较顺畅,没有花费太多的时间,并且可以拥有一个可以调用大概500次左右的大模型,这个对于个人来说还是比较实用的,毕竟现在DeepSeek的官网不太稳定,用于自己的apikey进行调用,还是比较稳定的。
人工只能平台PAI部署的体验,整个体验的过程也是类似的,只要按照官方提供的文档进行部署,就不会存在什么问题,唯一的缺点是需要产生费用的,一定要注意了,使用完成之后记得及时的释放资源,避免产生不必要的费用。