零门槛、百万token免费用,即刻拥有DeepSeek-R1满血版,还有实践落地调用场景等你来看

简介: DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。本文涵盖四种部署方案,可以让你快速体验云上调用 DeepSeek-R1 满血版的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可实现

测评开始之前,我们先来公布一下本次测评的解决方案链接https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616,然后我们再开始本次测评。

前沿背景

2025年春节可谓热闹非凡,宏观上来说是疫情后经济形势逐渐好转的重要起点,传统上来说是中国人阖家团圆的幸福节日,承载着每一位打工人的期盼与喜悦。在这个充满欢乐的时刻,国漫产业迎来了历史性突破,《哪吒2》票房一路高歌猛进,掀起全民观影热潮,“闹吒吒”成为春节新潮流。与此同时,DeepSeek技术的横空出世更是点燃了全球科技圈的热情,其影响力迅速蔓延至大众视野,公众号、小红书、技术栈、技术博客等平台随处可见其身影,部署方案、体验视频、操作文档等资源更是如潮水般涌现。那么,DeepSeek究竟是什么?DeepSeek-R1又是什么呢?

什么是DeepSeek-R1

DeepSeek-R1 于2025年1月20日正式发布,并同步开源模型权重。

DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。

DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置 model='deepseek-reasoner' 即可调用。

性能方面,DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

这里大家看到了一个新名词【蒸馏技术】,那么什么是 蒸馏技术?

蒸馏技术

模型蒸馏(Knowledge Distillation)是一种将大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的技术,旨在通过模仿教师模型的输出行为来训练学生模型,从而实现知识的有效传递。教师模型通常具有较高的性能,但计算成本高昂,难以在资源受限的环境中部署;而学生模型则通过蒸馏过程,在显著降低计算复杂度、存储需求和能耗的同时,尽可能保持与教师模型相近的性能表现。这种技术使得学生模型能够在保持较高推理精度和泛化能力的前提下,实现更快的推理速度和更低的内存占用,从而更适合应用于计算成本受限,性能受限的场景。

用大白话理解可以这样说:在学校,老师相对于学生来说,掌握的知识量以及储备往往都更丰富,老师通过自己的经验,提取出数据中的复杂模式和特征 。学生则通过模仿教师模型的输出,学习这些模式和特征,从而获得类似的能力。

那么在深度学习和人工智能领域,蒸馏技术就是说从大模型中提取核心知识或特征,通过一种更高效、精简的方式展现出来,通过提炼后的内容更利于大模型理解,从而提高计算效率或降低资源消耗。

到这里,大家关于DeepSeek中蒸馏技术是不是有个大概的理解了,那么下面我们先来在线体验一下DeepSeek吧!

在线体验

相信到现在的话,大家可能都已经体验过DeepSeek的强大能力了,那么这里我们先去DeepSeek官网体验一下DeepSeek的模型推理究竟有多强,官网地址:https://www.deepseek.com/ 首次体验的话需要先注册账号,在官网首页直接点击【开始对话】跳转到 DeepSeek 登录页面,在登录页面输入手机号,验证码点击【登录】即可

大家都知道,DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。那么登录成功后我们在DeepSeek在线体验页面,选中【深度思考(R1)】,同时输入经典数学问题,鸡兔同笼:有若干只鸡兔同在一个笼子里,从上面数,有35个头,从下面数,有94只脚。问笼中各有多少只鸡和兔?

点击发送后,DeepSeek-R1 会对当前的数学问题进行详细的推理分析,这个推理分析的过程,需要用到一个推理模型deepseek-reasoner 是 DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。这个思维链内容正如我们下面展示的内容,不是最终的推理结果,而是一个推理的思考的过程

嗯,今天老师布置了一个数学题,说是鸡兔同笼的问题,看起来挺经典的。题目是说笼子里有若干只鸡和兔子,从上面数有35个头,下面数有94只脚。问鸡和兔子各有多少只。嗯,我得仔细想想怎么解决这个问题。

首先,我得明确问题。鸡和兔子都在同一个笼子里,所以它们的头的总数就是鸡和兔子的数量之和,对吧?因为每只动物都有一个头,所以头的总数就是鸡的数量加上兔子的数量。题目里说头有35个,所以可以写成数学表达式:鸡的数量 + 兔子的数量 = 35。这一步应该没错吧?

接下来是脚的数量,题目里说有94只脚。鸡有两只脚,兔子有四只脚,所以总的脚数应该是鸡的数量乘以2加上兔子的数量乘以4,等于94。也就是:2×鸡的数量 + 4×兔子的数量 = 94。这样应该对吧?

现在,我需要解这两个方程组成的方程组。设鸡的数量为x,兔子的数量为y,那么方程组就是:

x + y = 35

2x + 4y = 94

接下来,我需要解这个方程组。通常解这种方程组可以用代入法或者消元法。这里可能用代入法比较方便,因为第一个方程可以解出一个变量,比如x = 35 - y,然后代入第二个方程中。

代入之后,第二个方程就变成:2*(35 - y) + 4y = 94。然后展开计算:

2*35 - 2y +4y = 94 → 70 + 2y =94

接下来,解这个方程,70 + 2y =94,那么2y=94-70=24,所以y=24/2=12。所以兔子有12只,那么鸡的数量x=35-12=23只。

嗯,这样算的话,鸡23只,兔子12只。对吗?验证一下。鸡23只的话,脚是23×2=46,兔子12只,脚是12×4=48,总共有46+48=94只脚,刚好符合题目里的条件。所以答案应该是正确的。

不过,有时候可能会想有没有其他方法,比如假设法。比如假设所有动物都是鸡,那么总脚数应该是35×2=70只脚,但实际有94只,差了94-70=24只脚。每只兔子比鸡多2只脚,所以需要把多少只鸡换成兔子才能补上24只脚呢?24÷2=12,所以兔子有12只,鸡就是35-12=23只。这也是一样的结果,所以答案应该没错。

不过有时候可能会有疑问,比如假设全部都是兔子的话,总脚数是35×4=140只,比实际多了140-94=46只脚,每只鸡比兔子少2只脚,所以需要换掉多少只兔子为鸡呢?46÷2=23只鸡,所以鸡23只,兔子35-23=12只。同样得到答案。所以不管用哪种方法,答案都是一样的,应该没错。

不过刚开始的时候,可能有点紧张,怕自己哪里算错了,所以需要多验证几次。比如代入法、假设法,都试一下,结果一致的话,应该没问题。

总之,答案应该是鸡23只,兔子12只。

那么整个的操作流程就是这样的,下面我准备了一个视频展示一下操作效果

异常情况

但是,随着DeepSeek 的在线使用需求迅猛增长,导致出现服务器资源紧张,响应延迟增加,甚至无法响应的情况可能会导致【服务器繁忙】而没有返回,比如这样的效果

或者是你点击官网首页的开始对话会直接提示Internet error等,遇到这种情况的话,等待或者过几分钟刷新页面时最好的选择,频繁的刷新并不会有任何改变哦。为了有一个更稳定的可以玩耍的DeepSeek-R1 服务,何不自己来部署一个呢?

网上也有很多本地部署的方案,但是本地部署对本地服务器计算能力有较高要求,因此本地部署所面临的高昂硬件和运维成本,同时还缺乏弹性扩缩容能力,难以应对业务量的波动等问题。那么阿里云的《零门槛、即刻拥有 DeepSeek-R1 满血版方案推荐在云端部署你的专属 DeepSeek 模型,不仅部署门槛低、支持各类模型尺寸,并且可以做到自动弹性扩展,云产品功能唾手可得,方案地址:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616

基于百炼调用 DeepSeek-R1 满血版 API

本方案通过百炼模型服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。这个方案属于四个方案中操作难度最小,使用最方便的部署方案,并且有百万token 免费用,特别适合新手小白,或者说喜欢 DeepSeek 的技术爱好者,或者是企业测试阶段使用,详细的操作跟着我来逐步操作吧。

方案介绍

在方案部署页面,直接点击顶部 tab 【满血版API调用】在跳转到的 【基于百炼调用 DeepSeek-R1 满血版 API,享100万免费token】 部署方案,点击方案下方的【免费体验】

image.png

方案架构

本方案用户通过Chatbox 可视化界面客户端发起调用,客户端调用百炼大模型服务中对应的DeepSeek模型返回生成的回答,方案架构清晰简单

开通服务

对于首次使用阿里云百炼的阿里云账号来说,需要先开通百炼模型服务,登录 阿里云百炼大模型服务平台,根据下图提示进行开通

百炼模型服务开通成功之后,鼠标悬停于页面右上角的 图标上,在下拉菜单中单击【API-KEY

image.png

如果你的账号下还没有创建 API-KEY 的话,那么你需要点击【创建我的API-KEY】,并选择 归属业务空间、描述信息,点击【确定】

image.png

创建完成我的API-KEY之后,点击列表右侧操作列的【查看】按钮,查看并复制创建的API-KEY 后面备用

image.png

模型广场

阿里云百炼大模型服务平台 ,选择左侧菜单【模型广场】-【DeepSeek】可以看到当前百炼大模型接入的DeepSeek 支持8个模型可供调用,

image.png

目前百炼大模型服务平台支持的 8 个 Deepseek 模型的计费相关的信息可以参考下面的介绍

image.png

image.png

我们选择 DeepSeek-R1模型,点击【查看详情】进入Deepseek-R1 模型详情页面,可以看到关于 Deepseek-R1模型的模型介绍、计费详情、免费额度、模型限流等信息

image.png

点击顶部tab,切换【模型介绍】为【API示例】,可以获取模型服务的

调用地址: https://dashscope.aliyuncs.com/compatible-mode/v1

模型名称:deepseek-r1  

复制后备用

image.png

Chatbox客户端调用

在使用Chatbox 客户端调用之前,首先需要下载安装 Chatbox, 访问 Chatbox 下载地址下载并安装客户端,我的电脑是Windows 系统,这里我选择下载 Windows 版本的

image.png

下载完成后双击安装,整个安装过程比较简单,按照默认的操作点击【下一步】即可,如果需要更换安装路径的,在选择安装路径操作页面更换自己想要安装的路径,安装完成后双击打开 Chatbox 客户端,选择【使用自己的API Key 或本地模型】

image.png

继续在【选择并配置 AI 模型提供方】的弹框页面下拉选择【添加自定义提供方】

image.png

在弹出的页面按照部署文档中的说明进行配置,

image.png

其中,【名称】、【API域名】、【API密钥】、【模型】需要手动填写,其他默认选择即可,配置完成后的效果图如图所示,点击【保存】

image.png

保存完成后,在Chatbox 输入问题【9.9和9.10 谁大】这时会展示一个 deepseek-r1 对当前问题的一个思考过程,就是输出思维链 的内容

image.png

等待问题推理结束之后给出具体的比较大小的步骤分析,并且输出问题分析后的答案,以及本次问题分析消耗的 tokens,以及选择的模型

image.png

下面我们再来体验一下 deepseek-r1 关于鸡兔同笼的问题的推理分析;输入问题,鸡兔同笼:有若干只鸡兔同在一个笼子里,从上面数,有35个头,从下面数,有94只脚。问笼中各有多少只鸡和兔?

image.png

同样的给出了详细的解答和具体的tokens 使用量。

更换模型

同样的方法,这里我想体验一下Deepseek 其他模型,只需要在 Chatbox 配置项是更换为其他模型名称就可以了,比如这里我点击 Deepseek-V3的 查看详情 ,在DeepSeek-V3 的详情页,点击复制模型名称

image.png

更改 Chatbox 配置 中的模型,其他选项不变,点击【保存】完成 Chatbox 配置

image.png

再次输入鸡兔同笼的问题后点击发送按钮,可以看到 deepseek-v3 模型不会有思维链的内容返回,而是直接给出了解答过程

image.png

在继续切换模型为 DeepSeek-R1-Distill-Llama-70B,来感受一下 DeepSeek-R1-Distill-Llama-70B 模型的返回以及分析效果,同样的方法复制模型名称并配置

image.png

输入鸡兔同笼问题后可以查看具体的输入,由于模型 DeepSeek-R1-Distill-Llama-70B 是一个基于Llama-3.1-70B的蒸馏大型语言模型,使用了 DeepSeek R1 的输出,因此这里也可以看到 思维链的内容输出

image.png

这里告诉大家一个配置 Chatbox  模型名称的小技巧,在配置模型名称时,将复制的模型名称放入输入框之后,会在下拉列表出现一个同样名称,前面有 + 号的,点击 + 的话,那么你输入的名称就会一直存在于下拉表中,方便在 Chatbox 对话框页面可以随便切换

image.png

选择 + 后,你添加的 模型名称就会一直保留在 Chatbox 对话框页面 ,就像这样。在配置的时候如果没有出现 【+ 模型名称】 的选项,点击后面 【X】号后重新粘贴就可以了

image.png

模型tokens 比较

这里我整理了以下同样的模型同样的问题单次返回消耗的tokens 数量作为一个比较

数学推理:有若干只鸡兔同在一个笼子里,从上面数,有35个头,从下面数,有94只脚。问笼中各有多少只鸡和兔?

自然语言生成代码:帮我列举一下基本算法及示例代码,用Java语言

百科:DeepSeek 蒸馏技术是什么

模型名称

DeepSeek-R1 DeepSeek-V3 DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Llama-70B

数学推理

消耗tokens

tokens used: 4925

23只鸡 和 12只兔

tokens used: 5508

23只鸡 和 12只兔

tokens used: 5629

23只鸡 和 12只兔

tokens used: 6107

23只鸡 和 12只兔

tokens used: 5981

23只鸡 和 12只兔

tokens used: 5960

23只鸡 和 12只兔

tokens used: 4739

23只鸡 和 12只兔

tokens used: 3765

23只鸡 和 12只兔

自然语言生成代码

消耗tokens

tokens used: 4477

7种算法及示例

tokens used: 5526

7种算法及示例

tokens used: 6921

5种算法,且2种非排序算法

tokens used: 9294

7种算法,且4种非排序算法

tokens used: 13449

12种算法,且7种非排序算法

tokens used: 18768

12种算法,且6种非排序算法

tokens used: 23330

14种算法,且7种非排序算法

tokens used: 27678

13种算法,且8种非排序算法

百科

消耗tokens

tokens used: 29264

内容详尽

tokens used: 31486

内容详尽

tokens used: 34063

有点答非所问

tokens used: 33407

回答内容相关

tokens used: 32528

回答内容相关

tokens used: 31141

回答内容相关

tokens used: 28633

回答内容相关

tokens used: 27456

回答内容相关

总结:

1 对于数学推理来说,各大模型的理解以及步骤分析,返回的最终答案都是正确的,差异是使用的tokens 会有一定的差异;

2 对于自然语言生成代码,这里我想要的Java语言基本算法及示例代码,实际上就是想要 排序算法的几种算法及示例代码,对于自然语言的理解,模型DeepSeek-R1 和DeepSeek-V3 理解的更符合我心中所想,我实际说的【基本算法】就是想要【排序算法】,另外就是这两个模型消耗的 tokens 也是最少。其他几种模型的理解则有一定的偏差,并且消耗的 tokens 可以看到,相当多了;

3 对于百科的内容,模型 DeepSeek-R1 和DeepSeek-V3  回答的内容比较符合官方的描述,DeepSeek-R1-Distill-Qwen-1.5B 模型回答的有点答非所问,剩下的几种模型回答的也有相关的内容。

HTTP直接调用

这里需要说明一下,你可以通过 OpenAI SDK 或 OpenAI 兼容的HTTP方式快速体验DeepSeek模型,由于我本地电脑没有Python 环境和 Node.js环境,因此这里我尝试 HTTP直接调用的方式,这里我本地有HTTP 调用工具Apipost,大家如果想使用HTTP调用的话,可以到 Apipost官网下载:https://www.apipost.cn/  HTTP调用方式示例代码

curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
    "model": "deepseek-r1",
    "messages": [
        {
            "role": "user", 
            "content": "9.9和9.11谁大"
        }
    ]
}'

将对应的调用地址及API-KEY 参数和model 参数输入Apipost如下所示

image.png

image.png

返回结果JSON格式内容如下

{
  "choices": [
    {
      "message": {
        "content": "9.9比9.11大。\n\n**步骤解析:**\n1. **对齐小数位**:将9.9写成9.90,使其与9.11的小数位数一致。\n2. **比较整数部分**:两者整数部分均为9,相等。\n3. **比较小数部分**:\n   - 9.90的小数部分是0.90(即90分),\n   - 9.11的小数部分是0.11(即11分)。\n   - 显然,0.90 > 0.11。\n4. **结论**:因此,9.90(即原数9.9)大于9.11。\n\n**验证方法:**\n- **减法验证**:9.90 - 9.11 = 0.79(正数,说明前者更大)。\n- **分数形式**:9.9 = 990/100,9.11 = 911/100,比较分子990 > 911。\n\n**答案**:9.9更大。",
        "reasoning_content": "嗯,我现在要比较9.9和9.11这两个数的大小。首先,我得确定这两个数的数值结构,可能的话将它们转换成相同的单位或者小数形式,这样比较起来会更直观。\n\n首先,9.9这个数看起来比较简单,它的小数点后只有一位数字,也就是十分位上的9,所以它等于9加上0.9,也就是9.9。\n\n然后是9.11,这个数的小数点后有两位数字,分别是十分位上的1和百分位上的1,所以它等于9加上0.11,也就是9.11。\n\n不过,这里可能有个问题,就是这两个数的位数不同,直接比较的话可能会有点混淆。为了更清楚地比较,我可以把它们的小数位数对齐,看看哪个更大。比如,我可以把9.9写成9.90,这样就有两位小数了,而9.11也是两位小数。这样比较起来会更方便。\n\n现在,把两个数都写成两位小数的形式:\n- 9.9 → 9.90\n- 9.11 → 9.11\n\n接下来,比较这两个数的整数部分。两者的整数部分都是9,所以整数部分相等。接下来比较小数部分:\n\n对于9.90,小数部分是0.90;\n对于9.11,小数部分是0.11。\n\n这时候,我需要比较0.90和0.11的大小。显然,0.90比0.11大,因为0.90相当于90分,而0.11相当于11分。因此,9.90比9.11大。\n\n不过,我突然想到,可能有人会误以为9.11中的“11”是某种特殊的表示方式,比如时间中的9点11分,或者版本号之类的,但在这里题目中给出的都是普通的十进制数,所以应该严格按照数值大小来比较。\n\n再验证一下,用减法的方式来看:\n9.90 - 9.11 = 0.79,结果为正数,说明9.90更大。\n\n或者,也可以将两个数都转换成分数形式:\n- 9.9 = 99/10 = 990/100\n- 9.11 = 911/100\n\n然后比较分子:990和911,显然990更大,所以990/100即9.9更大。\n\n另外,用数轴来想象的话,9.9在数轴上的位置应该比9.11更靠右,因为当整数部分相同,小数部分第一位是9比1大,所以即使第二位不同,第一位已经决定了大小。\n\n不过,可能有人会纠结于小数点的位数,比如把9.9当作一位小数,而9.11是两位小数,直接比较的话可能误以为后面的数字更多就更小,但实际需要对齐小数位后再比较每一位的数字。\n\n总的来说,通过不同的方法验证,都是9.9比9.11大。所以结论应该是正确的。",
        "role": "assistant"
      },
      "finish_reason": "stop",
      "index": 0,
      "logprobs": null
    }
  ],
  "object": "chat.completion",
  "usage": {
    "prompt_tokens": 12,
    "completion_tokens": 805,
    "total_tokens": 817
  },
  "created": 1739715756,
  "system_fingerprint": null,
  "model": "deepseek-r1",
  "id": "chatcmpl-aa37c425-c790-9542-b44a-305657d12221"
}

HTTP多轮对话,多轮对话功能可以让大模型“拥有记忆”,满足如追问、信息采集等需要连续交流的场景,多轮对话示例代码

curl -X POST "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation" \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
    "model": "deepseek-r1",
    "input":{
        "messages":[      
            {
                "role": "user",
                "content": "你好"
            },
            {
                "role": "assistant",
                "content": "你好!很高兴见到你,有什么我可以帮忙的吗?"
            },
            {
                "role": "user",
                "content": "你是谁?"
            }
        ]
    },
    "parameters": {
        "result_format": "message"
    }
}'

更新HTTP调用窗口的 Body下的JSON入参为多轮对话内容

image.png

这里可以看到HTTP直接调用的方式,请求耗时大概 28s 。再看下数学推理的HTTP直接调用方式的耗时,大概需要53s

image.png

对比而言,通过Chatbox 客户端调用的方式相对于HTTP接口调用的方式,HTTP接口调用的耗时相对会长一些。

Java 代码调用

这里需要告诉各位开发者一个好消息,目前通义灵码代码助手已经接入了 deepseek-r1 和 deepseek-v3 模型,大家在IDEA 中使用通义灵码插件的时候,可以通过下面的切换按钮来选择想要用的模型

image.png

如果你的IDEA 开发工具安装的通义灵码插件没有这个选项,那么你可以直接更新插件后重启IDEA 开发工具就可以了。这里为什么会提一下通义灵码呢,是因为我马上要用通义灵码来为我写 Java 代码调用 deepseek-r1 模型的代码,在通义灵码中输入如下内容

curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions -H "Authorization: Bearer $DASHSCOPE_API_KEY" -H "Content-Type: application/json" -d '{ "model": "deepseek-r1", "messages": [ { "role": "user", "content": "9.9和9.11谁大" } ] }' 生成Java 调用示例

这时可以看到通义灵码开始对当前的问题进行分析展示,也就是 思维链内容展示,也是 deepseek-r1 的标志性内容展示

image.png

思维链内容展示完成之后,会生成一个 Java 调用 deepseek-r1  API的示例代码,直接点击右侧的 【新建文件】

image.png

点击新建文件之后,会直接在当前文件夹下新建已经生成的类,在看到的类的详细信息中,我不喜欢用 org.json 的 jar包,也不喜欢生成的类名,

image.png

那么我们再次在通义灵码对话框中输入内容

类名用 DeepSeekR1Demo ,jsonobject 用fastjson 的jar包

这里可以看到,模型 deepseek-r1 展现了基于上下文的思考,分析了上面生成内容,同时融合当前提出的新需求

image.png

思维链详细内容展示

嗯,用户之前让我生成一个Java调用示例,用的是原生的HttpURLConnection和org.json库。现在用户提出了新的需求,要求将类名改为DeepSeekR1Demo,并且使用fastjson的jar包。我需要先理解用户的需求,然后进行调整。  首先,用户要求更改类名,这个很简单,只需要将原来的DashScopeExample替换为DeepSeekR1Demo即可。然后,用户希望使用fastjson代替org.json库。这意味着我需要替换JSON处理的代码,使用fastjson的API来构建请求体和解析响应。  接下来,我需要检查原来的代码中哪些地方用到了org.json库。原来的示例中使用了JSONObject和JSONArray来构建请求体,所以需要将这些替换为fastjson的相应类,比如com.alibaba.fastjson.JSONObject和JSONArray。同时,注意fastjson的方法可能和org.json有所不同,比如添加元素的方法可能是put或者add,需要确认正确的用法。  然后,Maven依赖部分需要更新,移除org.json的依赖,添加fastjson的依赖。当前最新的fastjson版本是1.2.83,所以需要替换对应的dependency。
另外,用户可能希望代码更简洁,或者符合他们项目的现有依赖结构,所以使用fastjson可能是他们项目的标准。同时,需要注意fastjson在处理JSON时的一些特性,比如序列化和反序列化的方式,确保生成的JSON结构正确。  在代码调整过程中,需要确保请求体的构建正确,特别是model和messages字段的结构是否与原来的示例一致。同时,处理响应部分可能需要调整,如果响应体的解析方式不同,需要使用fastjson的方法来解析JSON字符串。  还要检查异常处理部分,确保在替换库后,相关的异常被正确捕获和处理。例如,fastjson可能在解析时抛出不同的异常类型,需要适当处理。  最后,提醒用户更新依赖,并注意fastjson的版本安全,推荐使用最新稳定版以避免已知的安全漏洞。同时,保持原有的注意事项,比如API密钥的安全存储,异常处理的完善等。  现在,我需要将所有这些思考整合成一个符合用户要求的Java示例代码,并更新Maven依赖,确保代码正确无误,同时用中文清晰地解释改动点和注意事项。

同样的方法直接点击【新建文件】将当前类创建在指定目录下,点击【复制】按钮复制依赖到 pom.xml 文件中并刷新 Maven

image.png

打开我们通过通义灵码新建的类 DeepSeekR1Demo,导入 fastjson jar 包依赖,引入jar包依赖后的示例代码如下

package org.example;

import com.alibaba.fastjson.JSONArray;
import com.alibaba.fastjson.JSONObject;

import java.io.*;
import java.net.HttpURLConnection;
import java.net.URL;

public class DeepSeekR1Demo {
    public static void main(String[] args) {
        try {
            String apiKey = "DASHSCOPE_API_KEY";
            URL url = new URL("https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions");

            HttpURLConnection conn = (HttpURLConnection) url.openConnection();
            conn.setRequestMethod("POST");
            conn.setRequestProperty("Authorization", "Bearer " + apiKey);
            conn.setRequestProperty("Content-Type", "application/json");
            conn.setDoOutput(true);

            // 使用FastJSON构建请求体
            JSONObject payload = new JSONObject();
            payload.put("model", "deepseek-r1");

            JSONArray messages = new JSONArray();
            JSONObject message = new JSONObject();
            message.put("role", "user");
            message.put("content", "9.9和9.11谁大");
            messages.add(message);

            payload.put("messages", messages);

            // 发送请求
            try (OutputStream os = conn.getOutputStream()) {
                os.write(payload.toJSONString().getBytes("utf-8"));
            }

            // 处理响应
            int code = conn.getResponseCode();
            if (code == HttpURLConnection.HTTP_OK) {
                try (BufferedReader br = new BufferedReader(
                        new InputStreamReader(conn.getInputStream(), "utf-8"))) {
                    StringBuilder response = new StringBuilder();
                    String line;
                    while ((line = br.readLine()) != null) {
                        response.append(line);
                    }
                    JSONObject result = JSONObject.parseObject(response.toString());
                    System.out.println("API Response: " + result.toJSONString());
                }
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

替换掉代码中的 DASHSCOPE_API_KEY 为在阿里云百炼创建的 API-KEY,同时删除 conn.setRequestProperty("Authorization", "Bearer " + apiKey);  中的 Bearer ,更改为

conn.setRequestProperty("Authorization", apiKey);

这里是由于在官方API示例的HTTP请求代码中,通过 curl 的方式 这里有一个 Bearer  的存在,因此通义灵码在生成代码时将 Bearer  作为字符串与后面的 DASHSCOPE_API_KEY  进行了拼接,但是实际在调用过程中需要去掉 Bearer  ,不然 Bearer   + API-KEY 之后就不对了

image.png

修改之后 执行main 函数可以看到具体返回的效果,完美实现了 Java 代码调用 deepseek-r1 模型 API接口返回数据,调用结果

image.png

返回的 deepseek-r1 内容的json  返回结果如下

{
    "created": 1739790675,
    "usage": {
        "completion_tokens": 618,
        "prompt_tokens": 12,
        "total_tokens": 630
    },
    "model": "deepseek-r1",
    "id": "chatcmpl-71b131ee-220f-9255-89ad-d9fd3beea6c2",
    "choices": [
        {
            "finish_reason": "stop",
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "**9.9比9.11大**。以下是具体分析:\n\n1. **数值对齐**:将两数统一为相同小数位数,9.9写作**9.90**,9.11保持**9.11**。\n2. **逐位比较**:\n   - 整数部分均为9,相等。\n   - 小数部分第一位:9(9.90)> 1(9.11),因此无需比较后续位数。\n3. **结论**:9.90 > 9.11,即**9.9 > 9.11**。\n\n**注意**:若在版本号等特殊语境中(如软件更新),9.11可能代表更高版本,但纯数值比较仍以9.9更大。",
                "reasoning_content": "嗯,用户问的是9.9和9.11哪个大。这个问题看起来挺简单的,但可能用户有某种特定的考虑,或者他们可能对小数点后的位数理解有误。首先,我需要确认这两个数的数值到底是多少。\n\n先看第一个数,9.9,这显然就是九又十分之九,也就是9.90。第二个数是9.11,这里可能需要注意,用户是不是写错了,比如本来想写9.11还是9.1和1之类的,但按照给出的数字,应该是9.11,即九又百分之十一,也就是9.11。\n\n接下来比较这两个数的大小。一般来说,比较小数的时候,先比较整数部分,如果整数部分相同,再依次比较小数部分的每一位。这里的整数部分都是9,所以要看小数部分。\n\n9.9的小数部分是0.90,而9.11的小数部分是0.11。这时候可能会有一个误区,有人可能会直接比较小数点后的数字,比如认为9.9是9和9,而9.11是9和11,所以误以为9.11更大,因为11比9大。但其实小数点的位数不同,需要统一位数来比较。\n\n正确的做法是把它们写成相同的小数位数。例如,把9.9写成9.90,这样和9.11的位数就对齐了。这时候比较0.90和0.11,显然0.90大于0.11,因此9.90大于9.11,即9.9大于9.11。\n\n不过也有可能用户是在不同的上下文中使用这些数字,比如版本号或者其他非数值比较的情况。例如,软件版本中9.11可能代表的是第九版的第11次更新,而9.9则是第九版的第9次更新,这时候9.11会比9.9新。但如果是纯数学上的数值比较,那还是9.9更大。\n\n需要进一步确认用户的问题是否在数学数值比较,还是其他语境下的比较。如果用户没有特别说明,应该默认是数值比较,所以结论是9.9大于9.11。不过为了确保正确,最好再检查一下是否有其他可能的解释,比如书写错误或者不同的进位制,但通常来说应该没有问题。"
            }
        }
    ],
    "object": "chat.completion"
}

到这里,关于基于阿里云百炼服务平台部署调用DeepSeek-R1 满血版API 的全部操作就完成了。部署操作相当简单,部署文档也很简单,对于部署文档中描述不清的地方,我在后面的【反馈建议】中会提到。那么关于阿里云百炼服务平台部署调用DeepSeek-R1 满血版API 的多种调用方式的操作,文档中也有详细的说明,包括:Chatbox 客户端调用、HTTP直接调用(Apipost工具调用)、Java代码直接调用(通义灵码的deepseek-r1模型写的代码)。

这里我需要夸一下通义灵码,引入了 deepseek-r1 之后的通义灵码,不但数学推理能力有巨大提升,这本质的代码生成工作也是越来越牛了,根据我提出的问题结合上下文进行修复,生成的代码,基本上不用做改动就可以直接使用,这准确率相对于通义灵码刚公测时候的效果简直有了一个质的飞跃,赞一个!

基于人工智能PAI部署DeepSeek-R1 蒸馏版

阿里云提供的技术解决方案除了上面提到的基于百炼服务调用DeepSeek-R1 满血版API,还有三种解决方案,

image.png

下面我们继续来体验其他的几种部署方案。

方案介绍&架构

本介绍如何将 DeepSeek-R1 开源模型部署到人工智能平台 PAI,切换tab到【基于人工智能平台PAI部署】,点击【立即部署】进入部署详情页,在部署详情页可以看到具体的方案架构。可以看到人工智能平台 PAI 为 AI 研发提供了全链路支持,覆盖了从数据标注、模型开发、训练、评估、部署和运维管控的整个AI研发生命周期。


开通服务

登录 PAI 控制台,首次登录需要开通服务,这里选择 【暂不绑定 OSS Bucket 至 PAI 默认工作空间】,然后点击【一键开通】按钮

image.png

方案部署

人工智能凭条PAI服务开通之后,点击左侧菜单栏【 Model Gallery 】,在搜索框中输入 DeepSeek-R1,在搜索结果中选择 DeepSeek-R1-Distill-Qwen-7B

image.png

这里可以直接点击【部署】按钮选择工作空间后进行部署,也可以点击模型【详情】进入  DeepSeek-R1-Distill-Qwen-7B 模型详情页查看模型相关信息,在看完模型详情之后可以点击右上角的【部署】

image.png

点击【部署】按钮会弹出选择工作空间的弹框,如果没有工作空间,你可以点击【新建工作空间】,

image.png

新建工作空间页面,输入工作空间名称【deepseek_2025】,点击【下一步】

image.png

在关联资源页面暂时不关联资源,直接点击【创建】

image.png

确认工作空间信息后,点击【进入工作空间】

image.png

在当前的工作空间点击左侧菜单栏【 Model Gallery 】,在搜索框中输入 DeepSeek-R1,在搜索结果中选择 DeepSeek-R1-Distill-Qwen-7B

image.png

当然你也可以回到刚才选择工作空间的页面选择我们创建的工作空间,然后部署 DeepSeek-R1-Distill-Qwen-7B 模型,在弹出的部署面板中,部署方式选择【vLLM加速部署】,服务名称默认即可

image.png

继续下拉选择【资源规格】,这里点击【资源规格】,在弹出的资源规格页面输入  ml.gu7i.c8m30.1-gu30 搜索,选中后点击【确定】

image.png

可以看到我们的资源规格已经显示为刚才选择的资源规格信息了

image.png

以上内容都确定之后,点击【部署】会弹出一个计费信息提示框

image.png

如果是首次使用PAI-EAS的话,建议可以看一下计费说明,因为从个人角度来看,PAI-EAS资源还是有点小贵的,不适合平民使用。点击【确定】后等待2~5分钟部署成功

image.png


部署完成之后,在资源详情页面点击【查看调用信息】,在弹出的看板中选择【公网地址调用】,复制保存【访问地址】和【Token】 备用

image.png

Chatbox客户端调用

在使用Chatbox 客户端调用之前,同样需要点击【设置】配置接口调用信息,这里参考如下的表格内容进行配置

image.png

其中红框的内容直接复制到设置中,API域名以及API密钥信息对应的就是我们刚才复制保存【访问地址】和【Token

image.png

设置完成之后,在对话框中输入问题:介绍一下DeepSeek

image.png

到这里说明我们基于人工智能PAI部署DeepSeek-R1满血版API 部署成功,在对话框的下面可以看到具体消耗的tokens

image.png

回到人工智能PAI 的工作空间,在部署的服务页面点击【服务日志】可以看到具体的消耗 tokens 信息

image.png

点击【服务监控】可以看到在回答 问题【介绍一下DeepSeek 】时 人工智能PAI 的资源的使用情况

image.png

HTTP直接调用

基于人工智能PAI部署DeepSeek-R1满血版API同样支持HTTP调用的方式。BladeLLM 服务端提供兼容 OpenAI v1/completions 及 v1/chat/completions 的接口,支持客户端通过向 /v1/completions 或 /v1/chat/completions 路径发送 HTTP POST 请求调用服务。

completions 接口

调用示例:

curl -X POST \
    -H "Content-Type: application/json" \
    -H "Authorization: AUTH_TOKEN_FOR_EAS" \
    -d '{"prompt":"hello world", "stream":"true"}' \
    http://12345678.cn-beijing.pai-eas.aliyuncs.com/api/predict/blade_llm_demo_service/v1/completions

chat 接口

调用示例:

curl -X POST \
    -H "Content-Type: application/json" \
    -H "Authorization: AUTH_TOKEN_FOR_EAS" \
    -d '{
        "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "Hello!"
        }
        ]
    }' \
    http://12345678.cn-beijing.pai-eas.aliyuncs.com/api/predict/blade_llm_demo_service/v1/chat/completions

我们只需要替换Apipost 的HTTP请求的Header 信息 Authorization 为上面复制的 【Token】,请求链接替换为复制的【访问地址+/v1/chat/completions

image.png

同时请求参数中的Body替换为

image.png

同样的跟上面类似的方式,替换了【访问地址】和【Token】之后,就可以通过Java 代码直接调用的方式来实现在应用中的调用。

资源释放

由于人工智能PAI的资源费用往往比较小贵,在测评结束后,如果暂时不用的话,这里建议还是尽快释放部署的服务比较好。在人工智能PAI 的工作空间页面,选择左侧菜单【模型在线服务(EAS)】,点击列表右侧的【删除】,弹框选择【删除】

image.png

这里需要说明的是,点击【删除】按钮可能一次不会有用,我点击尝试了多次,才看到【服务状态】变成了【删除中】

image.png

到这里,已经体验部署了 【零门槛、即刻拥有 DeepSeek-R1 满血版】部署方案的两种,那么我们下面继续第三种部署方案。

基于函数计算FC部署DeepSeek-R1 蒸馏版

在开始部署之前,我们还是来到我们的部署方案,在部署方案页面选择【蒸馏版模型部署】-【基于函数计算部署】。

方案介绍&架构

点击【基于函数计算部署】方案的【立即部署】,在部署操作页面可以看到本方案是将 DeepSeek-R1 开源模型部署到函数计算 FC,通过云原生应用开发平台 CAP 部署 Ollama 和Open WebUI 两个 FC 函数。Ollama 负责托管 lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF 模型,它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。

image.png

对于部署方案实施人员来说,借助 CAP,可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发

开通服务

对于没有开通过函数计算FC服务的账号来说,可以直接登录 函数计算控制台,在函数计算控制台会有开通函数计算FC服务的提醒,这里我的账号已经开通过函数计算服务了,开通函数计算FC后的控制台如下

image.png

方案部署

前面已经说了,基于函数计算FC部署方案借助云原生应用开发平台CAP实现一键部署,这里直接点击 前往部署 打开官方提供的云原生应用开发平台 CAP 项目模板,这里云原生应用开发平台CAP 的部署模版已经将部署DeepSeek-R1 所需要的资源及服务、地域都配置好了,在部署页面只需要直接点击【部署项目】就可以,无需其他操作

image.png

点击部署项目之后,在弹出的项目资源预览可以看到需要用到的资源信息,点击【确认部署】

image.png

整个部署过程需要等待大约10~12分钟左右,部署成功后可以看到如图资源

image.png

Web体验

基于函数计算FC部署DeepSeek-R1 的部署方案支持通过 Web页面访问体验,这里我们点击部署成功页面的【访问地址】

image.png

我们复制公网访问地址到浏览器可以开始后面的测试,但是我的公网地址不知道为什么不能访问,尝试了多次也没有成功,也用VPC访问地址试过,还是不行

image.png

在线API体验

本方案的DeepSeek-R1 支持在线API体验,在部署成功页面,点击右上方的【访问地址】会弹出一个右边框页面,这里可以切换API调用方式,这里我选择Java 的调用方式,可以直接看到具体的 Java 代码

image.png

点击【测试】按钮,可以看到具体的返回参数,并且返回的还挺快,比上面部署的两种方式的HTTP调用返回快多了

image.png

Java示例代码这里我放在文档中,方便后面参考

String payload = "{\"model\":\"cap-deepseek-r1\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello! 你是谁?\"}],\"stream\":false}";
HttpClient client = HttpClient.newHttpClient();

HttpRequest request = HttpRequest.newBuilder(URI.create("https://cap-oll-huswnog-ridneynpbm.cn-beijing.fcapp.run/api/chat"))
            .header("content-type", "application/json")
            .POST(HttpRequest.BodyPublishers.ofString(payload))
            .build();

HttpResponse<String> response = client.send(request, BodyHandlers.ofString());

HTTP 直接调用

基于函数计算FC 部署方案,同样支持通过HTTP直接调用,在访问地址的弹出层页面,我们再切换到cURL 的调用方式,复制调用方式的代码,方便我们后续进行 HTTP 直接调用

curl --request POST
  --url https://cap-oll-huswnog-ridneynpbm.cn-beijing.fcapp.run/api/chat
  --header 'Content-Type: application/json'
  --data '{
    "model": "cap-deepseek-r1",
    "messages": [
        {
            "role": "user",
            "content": "Hello! 你是谁?"
        }
    ],
    "stream": false
}'

这里我们将请求地址和请求参数都放在我们的本地API 调用工具里面进行尝试,如下配置请求地址,Header 参数

image.png

在继续配置Body 的请求参数,json 格式的

image.png

点击【发送】可以看到大约 8s 就返回结果了,这个请求响应还是挺快的,

image.png

Chatbox 客户端调用

同样的,我们也可以通过Chatbox 客户端调用,打开 Chatbox 客户端,点击设置,模型提供方选择 【Ollama API】,API域名输入我们的公网访问地址,下拉选择模型 选择 【cap-deepseek-r1:latest

image.png

点击【保存】完成配置,配置完成后,在对话框输入:你是谁?  等待返回结果,等了大概2分钟才出结果,并且思维链的内容也没有了

image.png

另外就是基于函数计算FC的部署方案支持在线配置方式,可以直接通过编辑资源配置的方式来实现随时的扩容和缩容,最大可能得降低成本,提高资源利用率

image.png

资源释放

由于这里的资源是需要按量付费的,这里在使用结束之后,如果不再使用的话,建议可以释放资源。登录 云原生应用开发平台 CAP 控制台,在左侧导航栏,选择【项目】,找到部署的目标项目,在操作列单击【删除】,然后根据页面提示删除项目

image.png

在删除项目的弹框页面输入项目名称,勾选协议,选择【确定删除】完成释放资源的操作。

image.png

基于GPU 云服务器部署DeepSeek-R1 蒸馏版

方案介绍&架构

基于GPU云服务器部署DeepSeek-R1,是将DeepSeek-R1 开源模型部署到 GPU 云服务器。在 GPU 云服务器上安装与配置 vLLM 和 Open WebUI。vLLM 负责托管 DeepSeek-R1 模型,Open WebUI 则为用户提供友好的交互界面。GPU 云服务器凭借其高性能并行计算架构,可以显著加速大模型的推理过程,特别是在处理大规模数据和高并发场景,可以有效提升推理速度和推理吞吐。方案架构如图

资源准备

在开始部署DeepSeek-R1 之前,需要先创建以下资源,方便后面在部署时可以直接使用。

创建专有网络 VPC 和交换机

登录 专有网络管理控制台,选择左侧菜单【专有网络】-【创建专有网络】

image.png

在创建专有网络页面,选择地域 【杭州】输入专有网络名称,选择IPv4 网段

image.png

继续下拉,在交换机信息中输入交换机名称、选择可用区,点击【确定】完成专有网络和交换机的创建

image.png

创建安全组

登录 ECS 管理控制台,顶部地域切换为【杭州】,选择菜单【安全组】-【创建安全组】

image.png

在创建安全组页面,默认安全组名称,选择我们创建的专有网络【VPC_HZ】,点击【手动添加】,输入需要开通的端口号 22、8000、8080,点击【创建安全组】完成安全组的创建

image.png

创建GPU服务器

登录 ECS 管理控制台,选择左侧菜单【实例】,点击【创建实例】,地域需要切换为 【杭州】地域

image.png

在创建实例页面,选择付费类型为【按量付费】,选择我们资源准备是创建的网络和可用区

image.png

继续下拉,在选择实例规格中,搜索框输入【ecs.gn7i-c32g1.8xlarge】,勾选选中

image.png

实例镜像选择公共镜像下的【Alibaba Cloud Linux】,镜像版本选择 【Alibaba Cloud Linux 3.2104 LTS 64位】,勾选安装 GPU 驱动,在下拉列表中选择 【CUDA 版本 12.4.1 / Driver 版本 550.127.08 / CUDNN 版本 9.2.0.82

image.png

系统盘选择【ESSD 云盘】,同时硬盘容量选择 100GiB

image.png

带宽和安全组选择勾选 分配公网IPv4地址,【按使用流量】,选中【10Mbps】,安全组选择前面创建的安全组

image.png

在管理设置输入【自定义密码】后,点击右侧的【确认下单】完成GPU 实例的创建

image.png

方案部署

等待GPU实例创建完成之后,在实例列表点击右侧操作列的【远程连接】,

image.png

选择通过 Workbench 远程连接至 ECS 服务器,点击【立即登录】

image.png

这里建议等待10~20分钟后再登录ECS服务器,因为刚创建的GPU实例 GPU 驱动尚未完成安装,

image.png

等待驱动安装完成,ECS服务器自动重启之后,可以看到如下结果

image.png

执行如下命令部署模型

/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B

等待模型部署完成之,整个安装过程比较耗时,需要耐心等待,大概需要 10~20 分钟左右,部署完成之后,复制保存好 vLLM API TOKEN 备用。

Web体验

在浏览器中访问 http://8.136.100.118:8080,访问 Open WebUI,输入问题:你是谁?来验证服务部署的结果

Chatbox 客户端调用

同样的方法,在Chatbox 客户端,选择设置,选择自定义提供方,输入名称【vLLM API】,输入API域名,上面备用的vLLM API TOKEN ,以及模型名称【DeepSeek-R1-Distill-Qwen-7B】,模型名称有大小写区分的,需要注意

image.png

然后就可以在Chatbox对话框测试内容了

在部署文档中没有看到HTTP调用或者是API接口调用的方式,这里 就不再赘婿了,如果有调用接口的话,基本也都差不多,需要将 vLLM API TOKEN 作为密钥传入请求头 Header 的认证信息中就可以了。下面我来说说这几种部署方案感受。

最后总结

部署文档&操作指引

关于部署文档以及操作指引相关的内容,在部署过程中遇到的问题,或者疑问,这里我都详细的记录下来了。

一:对于基于百炼服务平台的 部署方案,基于百炼调用 DeepSeek-R1 满血版 API,部署文档写的有点过于简单了,只是提到了API-KEY的获取方式,并没有告知API域名(服务调用地址从哪儿来)。虽然在部署文档中给出了服务调用地址的 示例值 ,但是我一开始只认为这是一个示例,并不是真的服务调用地址,直到与DeepSeek 模型查看详情下面的API 示例里面的地址对比了才知道是准确的地址。另外,在部署过程中,并没有说明模型名称从哪儿来的,应该在文档中补充说明模型名称可以到【模型广场】的模型详情里面复制具体用到的模型名称

image.png

二:对于基于人工智能PAI 的部署方案,在搜索到了具体的模型DeepSeek-R1-Distill-Qwen-7B 之后,点击【部署】是需要选择【工作空间】的,而部署方案中关于工作空间的创建步骤没有提及,这里我已经在我的文章中补足了

还有就是在最后的资源释放阶段,多次点击列表右侧操作列的【删除】按钮,并且多次刷新页面才终于看到了【删除中】的状态,并且多次操作【删除】并没有任何异常信息,都是提示成功,但是又可以继续点击【删除】。这个不清楚具体是网络原因,删除请求多次没发出去,还是说EAS 服务在删除之前可以多次操作删除呢?

三:对于基于函数计算FC部署方案,整个过程可以算的上是一键部署,部署操作什么都不用管,全部默认直接点击【部署项目】就可以完成部署操作。唯一的遗憾是部署成功之后,访问地址在浏览器无法访问,多次刷新页面也是没有任何效果,不知道什么原因

但是在线API体验的设计还不错,支持多种语言的调用方式,特别是支持了 Java 调用,这对于我这个Java 开发者来说,想用的时候可以直接复制 Java 调用代码到项目中就可以无缝接入了。另外就是不管是在线API调用,还是通过API 调用工具的调用方式,返回结果的效率都是刚刚的,相当快。但是是用Chatbox客户端调用的方式却比较慢,还是一头雾水,同样的调用地址Web访问浏览器出不来,API调用却贼快,Chatbox虽然慢但是也出来了。

四:对于基于GPU云服务器部署方案,部署过程中,整个操作文档写的足够详细,每一步需要执行以及执行后的效果也足够操作者参考,但是在操作过程中,对于部署模型的耗时没有明确预估,需要等挺久时间的,最好是可以有个预估,让操作者提前有个心里准备,其他就没什么问题了。

四种部署方案的优势对比

通过四种方案的部署以及文档中对于方案的介绍和描述,可以比较清晰的了解每一种方案的优势和不足之处,这里我列一个表格,来对每种部署方案的各个情况进行一个整理说明

部署方案

推荐指数

推荐理由

不足之处

适用场景

基于百炼部署DeepSeek-R1

强烈推荐

1.部署方案操作简单;2.调用方式灵活,支持多种调用方式;3.模型切换方便,可以更换模型名称即可;4.百万tokens 免费用,无成本;

5.模型介绍详细,可选性多;

百炼平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,适用于企业快速接入调用场景。

基于人工智能PAI部署DeepSeek-R1

可以考虑

1.部署方案操作简单;2.调用方式灵活,支持多种调用方式;3.模型介绍详细,可部署方案较多;4.支持多模型一键部署,系统将自动适配所需的实例规格;

1.模型切换需要重新重新部署;2.部署有一定成本,不够友好;3.不同模型成本差异较大,限制了用户选择;

无须写代码即可完成模型部署,同时系统将自动适配所需的实例规格,满足企业特定的场景需求,支持企业微调训练。

基于函数计算FC部署DeepSeek-R1

推荐

1.部署方案最简单,一键部署;2.调用方式灵活,支持多种调用方式;3.计费方式灵活,节约成本;4.可以更改配置快速扩缩容;

1.模型比较单一,目前没有其他模型可以选择;2.部署有一定成本,按量付费;

适用于需要一键部署,不关注运维、按量付费的用户。

基于GPU云服务器部署DeepSeek-R1

自愿选择

1.部署方案详细,步骤清晰;2.调用方式够用;3.算力强大,提高模型推理速度和吞吐量

1.操作步骤较多,和本地部署没啥区别;2.成本相对较高;3.API调用方式文档没说明;

可以有效提升推理速度和推理吞吐量,适用于对模型推理速度有高要求,具备运维能力的用户。

介绍完了上面几种部署方案的区别之后,对比其他三种方案,更倾向于第一种方案,基于百炼服务部署DeepSeek-R1。方案一基本没有什么部署操作,同时支持多种接入方式,拿过来就能直接用,0成本接入项目,效果也是杠杠的,贼好。。。

满足实际需求

有了上面的分析以及个人比较倾向于的方案,目前 本方案 《零门槛、即刻拥有 DeepSeek-R1 满血版》已经足够满足个人在实际场景中的使用了,对于强烈推荐的基于百炼服务部署DeepSeek-R1,支持多种接入方,对于企业落地大模型,接入成本最低,使用成本也不高。有一点希望就是对于现有的DeepSeek 模型是否可以支持企业微调训练,或者说支持企业知识库导入,这样在结合 DeepSeek-R1 的推理的基础上可以更好的契合企业自身的知识场景,满足高精准的场景使用。


Q&A

Q&A 相关内容可以看另一篇文章:https://developer.aliyun.com/article/1652737

其他平台链接

InfoQ:https://xie.infoq.cn/article/37937ef8955cb87700580367a

CSDN:https://blog.csdn.net/csdn565973850/article/details/145838639

51CTO:https://blog.51cto.com/u_10917175/13393473


相关文章
|
1月前
|
人工智能 自然语言处理 Shell
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
仅用3分钟,百炼调用满血版Deepseek-r1 API,享受百万免费Token。阿里云提供零门槛、快速部署的解决方案,支持云控制台和Cloud Shell两种方式,操作简便。Deepseek-r1满血版在推理能力上表现出色,尤其擅长数学、代码和自然语言处理任务,使用过程中无卡顿,体验丝滑。结合Chatbox工具,用户可轻松掌控模型,提升工作效率。阿里云大模型服务平台百炼不仅速度快,还确保数据安全,值得信赖。
358063 67
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
|
1月前
|
人工智能 API 开发工具
【重磅发布】 免费领取阿里云百炼AI大模型100万Tokens教程出炉,API接口实战操作,DeepSeek-R1满血版即刻体验!
阿里云百炼是一站式大模型开发及应用构建平台,支持开发者和业务人员轻松设计、构建大模型应用。通过简单操作,用户可在5分钟内开发出大模型应用或在几小时内训练专属模型,专注于创新。
608 89
【重磅发布】 免费领取阿里云百炼AI大模型100万Tokens教程出炉,API接口实战操作,DeepSeek-R1满血版即刻体验!
|
1月前
|
人工智能 API 网络安全
用DeepSeek,就在阿里云!四种方式助您快速使用 DeepSeek-R1 满血版!更有内部实战指导!
DeepSeek自发布以来,凭借卓越的技术性能和开源策略迅速吸引了全球关注。DeepSeek-R1作为系列中的佼佼者,在多个基准测试中超越现有顶尖模型,展现了强大的推理能力。然而,由于其爆火及受到黑客攻击,官网使用受限,影响用户体验。为解决这一问题,阿里云提供了多种解决方案。
37742 45
|
21天前
|
人工智能 运维 Cloud Native
全面开测 - 零门槛,即刻拥有DeepSeek-R1满血版,百万token免费用
DeepSeek是当前热门的推理模型,尤其擅长数学、代码和自然语言等复杂任务。2024年尾,面对裁员危机,技术进步的学习虽减少,但DeepSeek大模型的兴起成为新的学习焦点。满血版DeepSeek(671B参数)与普通版相比,在性能、推理能力和资源需求上有显著差异。满血版支持实时联网数据更新和多轮深度对话,适用于科研、教育和企业级应用等复杂场景。 阿里云提供的满血版DeepSeek部署方案对普通用户特别友好,涵盖云端调用API及各尺寸模型的部署方式,最快5分钟、最低0元即可实现。
487 68
|
25天前
|
人工智能 运维 前端开发
基于阿里百炼的DeepSeek-R1满血版模型调用【零门槛保姆级2084小游戏开发实战】
本文介绍基于阿里百炼的DeepSeek-R1满血版模型调用,提供零门槛保姆级2048小游戏开发实战。文章分为三部分:定位与核心优势、实战部署操作指南、辅助实战开发。通过详细步骤和案例展示,帮助开发者高效利用DeepSeek-R1的强大推理能力,优化游戏逻辑与视觉效果,解决官网响应延迟问题,提升开发效率和用户体验。适合企业开发者、教育行业及多模态探索者使用。
89911 21
基于阿里百炼的DeepSeek-R1满血版模型调用【零门槛保姆级2084小游戏开发实战】
|
10天前
|
人工智能 Java API
阿里云 0 元领取 100 万 Tokens,零门槛体验 DeepSeek-R1 满血版
阿里云开放DeepSeek-R1满血版体验,0门槛领取100万Tokens,参数规模6710亿,性能强劲且完全免费。用户可轻松写代码、做表格、写故事、逻辑推理等。重点是无需任何编程基础,学生党、职场新人皆可使用。通过注册阿里云账号、生成API Key并使用HiFox客户端,即可快速上手体验顶级AI助手的强大功能。限时福利,赶快行动!
|
8天前
|
人工智能 运维 API
评测|零门槛,即刻拥有DeepSeek-R1满血版
在大模型浪潮席卷而来的当下,人工智能正以前所未有的速度渗透进各行各业。对于开发者群体而言,这无疑是一场意义深远的变革。当下,缺乏AI相关应用开发经验或许尚可立足,但展望未来,一年之后,若仍在这一领域毫无建树,在职场上恐将举步维艰,面临求职困境。 对于AI领域的新手小白来说,急切需要解决两大关键问题:一是如何以最快捷的方式上手使用AI相关应用,快速踏入AI大门;二是怎样寻觅合适的业务场景,切实开展AI实践操作,积累宝贵经验。 值得庆幸的是,阿里云为广大开发者提供了丰富且优质的机会。在接下来的内容中,将深入剖析阿里云在AI领域的全方位布局,并详细介绍如何借助阿里云平台,实现云上调用满血版DeepS
55 6
评测|零门槛,即刻拥有DeepSeek-R1满血版
|
1月前
|
自然语言处理 Serverless 测试技术
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
DeepSeek模型近期备受关注,其开源版本DeepSeek-V3和DeepSeek-R1在多个基准测试中表现出色,性能比肩OpenAI顶尖模型。为降低本地部署门槛,Modelscope社区推出DeepSeek-R1-Distill-Qwen模型的一键部署服务,支持函数计算FC平台的闲置GPU实例,大幅降低成本。用户可选择不同参数量的小模型进行快速部署和推理,体验DeepSeek的强大性能。
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
|
1月前
|
人工智能 自然语言处理 数据可视化
零门槛,轻松体验阿里云 DeepSeek-R1 满血版:快速部署,立享超强推理能力
DeepSeek-R1 是阿里云推出的先进推理模型,专为解决复杂任务设计,尤其在数学推理、代码生成与修复、自然语言处理等领域表现出色。通过阿里云的“零门槛”解决方案,用户无需编写代码即可快速部署 DeepSeek-R1,大幅简化了部署流程并提升了使用效率。该方案提供了详尽的文档和可视化界面,使开发者能轻松上手。DeepSeek-R1 支持多种模型尺寸,适用于不同场景,如智能客服、代码自动化生成、数学问题求解和跨领域知识推理。尽管存在对高自定义需求支持有限、云端依赖性等不足,但对于希望快速验证模型效果的用户而言,阿里云的这一解决方案仍然是高效且经济的选择。
1994 31
|
1月前
|
人工智能 自然语言处理 负载均衡
零门槛体验DeepSeek-R1满血版
本文介绍了阿里云通过百炼平台的API调用DeepSeek开源模型的体验过程,如何开通服务、获取API-KEY、下载并配置chatbox客户端。此外,文中展示了多种部署方案,方便用户根据自身需求选择最优方式。
1189 9
零门槛体验DeepSeek-R1满血版