从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用

简介: 本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。

个人博客:https://www.yuisblog.com/archives/279/
CSDN博客:https://blog.csdn.net/KitrosMC/article/details/145973271?spm=1001.2014.3001.5502

在年前 DeepSeek-R1 的爆火出圈让更多人了解并且关注到了 LLM 大模型现在的强大之处,但是目前市面上解决方案十分稀少,很多普通的用户都只能下载 DeepSeek 官方的 APP 进行使用,然而由于 DeepSeek 的服务器频繁收到攻击,从而很多时候都无法正常使用。就在此时国内众多公司纷纷表示接入了 DeepSeek 模型,纵然如此,由于这些接入的 DeepSeek 模型大部分是以 API 的方式进行对外服务,因此一般用户来说使用上仍有困难。

这次受邀评测阿里云提供的《零门槛、即刻拥有 DeepSeek-R1 满血版》解决方案,直达链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?spm=a2c6h.29979571.J_9175035460.3.4f66704c1zKnMm&utm_content=g_1000401616。这个解决方案提供了多种方式让不同的用户使用满血版的 DeepSeek-R1 模型,由于我个人比较关注普通用户(缺乏预算,云计算经验以及编程知识的用户)如何能够更好地使用这些大模型,这次我们将会通过调用百炼的 API 来进行我们的评测。

第一部分:使用 Chatbox 调用百炼 API(按照解决方案)

在这一部分我们将会按照官方给的解决方案使用 Chatbox 来调用百炼 API,我会在这里补全一些提示以及纠正一些普通用户可能会存在的错误的迷思。

第一步:在百炼平台获得 API 密钥

首先我们登录阿里云百炼的 API 密钥的控制台,链接为:https://bailian.console.aliyun.com/?apiKey=1#/api-key,在里面我们按照下面图片的方法添加我们的 API 密钥:

创建API-KEY

注意:这里我们可以创建 10 个 API 密钥,不代表我们只能使用 10 个模型或者只能创建 10 个 Agent,因为这些 API-KEY 是可以在不同模型中通用的。同时我们也需要注意补药泄露我们的 API 密钥,因为其他人也能用这个 API 密钥来使用百炼的模型,但是会从你账户中扣费!

第二步:下载 Chatbox 并且配置对接百炼 API

我们可以从这里下载 Chatbox 应用,我们这里使用的是 Windows 版本,下载完之后我们进行安装,安装结束后我们进入到我们的 Chatbox 的界面按照下面图片的方法配置:

  1. 添加新提供方
    添加新提供方

  2. 填写配置
    填写配置

我们这里为了方便把配置的内容也写出来:

配置 内容
API 域名 https://dashscope.aliyuncs.com/compatible-mode/v1
API 路径 /chat/completions
模型 deepseek-r1

第三步:开始对话

在添加完成之后我们点击【保存】就可以开始我们的对话啦!

开启新对话

反思:如何更好地落实到应用当中?

如果是只到这一步的话,那我们只是用了一个更稳定的 DeepSeek-R1 满血版,如果 DeepSeek 的服务器更稳定一些那我们以上的部署其实就是重复造轮子了。这让我们不禁开始想,如何更好地让 DeepSeek 辅助我们的日常生活?我们可以发现每次处理一些任务的时候我们都要输入很长的 prompt 或者要引导很多次才能达到最终的目的,那么我们现在可以做的就是让 DeepSeek 自己来帮我们完成引导。

第二部分:更进一步,使用 Dify 调用百炼 API 创建工作流

这里我们可以使用 Dify 来完成这个事情!”Dify 是一个易用的 LLMOps 平台,旨在让更多人可以创建可持续运营的原生 AI 应用“,下面是 Dify 的 Github 与 Gitee 链接:

第一步:选购云服务器并且安装 Dify

我们可以在 ECS 选购页面 中选择任何大于 2 核心 4 GB 运行内存的机器(这是官方推荐的配置),硬盘只需要 40 GiB 就足够了。同时,我们也需要访问公网,我们可以添加一个固定的公网 IP 并且使用流量计费(如果是要用于生产的话建议选固定带宽的),至于系统我们可以选择 Ubuntu 24.04。

ECS配置

注意:为了方便待会安装,我们可以选择中国香港地域的 ECS 云服务器

在创建好了之后我们通过控制台登录到我们的 ECS 云服务器中:

控制台

随后我们登录到我们用刚才创建 ECS 云服务器的时候使用的密码来登录到我们的命令行中,我们参考阿里云文档中《云服务器安装 Docker》以及 阿里云容器镜像服务控制台 中的指令来安装我们的 Dify,下面是我们使用到的指令,可以直接复制到 ssh 命令行中运行,其中镜像加速器地址可以在 阿里云容器镜像服务控制台 中找到),请复制并且填入指令中再运行

#更新包管理工具
sudo apt-get update
#添加Docker软件包源
sudo apt-get -y install apt-transport-https ca-certificates curl software-properties-common
sudo curl -fsSL http://mirrors.cloud.aliyuncs.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
sudo add-apt-repository -y "deb [arch=$(dpkg --print-architecture)] http://mirrors.cloud.aliyuncs.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
#安装Docker社区版本,容器运行时containerd.io,以及Docker构建和Compose插件
sudo apt-get -y install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
#启动Docker
sudo systemctl start docker
#设置Docker守护进程在系统启动时自动启动
sudo systemctl enable docker

#配置容器加速
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
   
  "registry-mirrors": ["镜像加速器地址"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

#安装 git
sudo apt-get -y install git

#安装 Dify
git clone https://github.com/langgenius/dify.git
cd dify
cd docker
cp .env.example .env
docker compose up -d

等待运行完了之后我们就安装好了我们的 Dify 了。

第二步:配置 Dify 并部署 AI 应用

我们现在可以访问 http://[你的ECS公网IP]/install 来访问我们的 Dify 应用(在此之前我们应该在我们的云服务器安全组中放行入方向 80 端口),我们进去之后会看到下面图片中的界面,我们按照图片中的指示创建我们的管理员账号:

安装界面

随后我们会跳转到 http://[你的ECS公网IP]/signup 页面,我们用刚才创建的管理员账号进行登录,这里可能由于是没有配置 HTTPS 的原因,点击登录之后不会自动跳转,这个时候直接访问 https://[你的ECS公网IP]/apps 即可

登录界面

进入到我们的主页之后,我们按照以下步骤安装对接百炼 API:

  1. 按照下图点击用户头像,进入设置中:
    步骤1

  2. 安装通义千问(百炼)对接调用插件:
    步骤2

  3. 点击安装之后需要稍等几秒后刷新页面,会发现以及安装成功了,之后直接点击添加模型
    步骤3

  4. 按照下图填入 deepseek-r1 以及自己的 API 密钥添加对接:
    步骤4

之后我们就成功地添加好了我们的 DeepSeek-R1 满血版对接了!我们接下来安装一些必要的插件,我们可以按照下图的步骤来安装,这些插件之后会对我们的应用有所帮助的:

安装插件

随后我们来开始使用 Dify 真正强大的功能,我们回到 http://[你的ECS公网IP]/apps 中点击【从应用模板创建】:

创建AI模板应用

在其中可以发现有很多不同的应用模板可供我们选择,包括科研助手,自动回复邮件助手等等,我们这里以科研助手 DeepResearch 为例:

创建 DeepResearch

在创建好了之后我们可以看到我们庞大的工作流,这里我们需要修改其中用到的大预言模型为 DeepSeek-R1,我们这里以其中一个作为例子:

修改模型

在修改好了下图中指示的两处之后我们可以点击右上角的发布来上架这个应用,然后进行使用了:

发布应用

第三步:开始使用 AI 应用

我们点击发布之后会自动跳转到应用页面,随后我们会需要设置一个 depth,这里为了方便我设置为 2,点击提交之后我们就可以开始进行对话啦!

开始对话

我们可以注意到这里运行还是比较久的,我们也可以在应用的工作流界面中点击【预览】来进行测试,在这个界面进行测试的好处就是工作流中线条会通过改变颜色告诉你目前模型运行到哪一步了:

预览对话

进度显示

最后输出

这里就是我们使用 Dify 的流程,Dify 也提供了自己的 API 可以进行对接,这样就可以把你自己创建的 AI 应用与其他的业务进行交互,从而提高效率了!最后我们做了那么多,不妨来看看同一个问题最后输出的结果有什么不一样吧!

使用 Chatbox 与 Dify 的比较

效果对比图

在上面的图中,左边的是使用 Dify 部署 AI 应用的输出,右边是使用 Chatbox 的输出。我们可以注意到,使用 Dify 应用进行的输出是比较完善的,其中字数比 Chatbox 输出的多了快有一倍,提供了更多详细的解释以及提供了参考的论文文献。由此可见,使用 Dify 部署 AI 应用可以更高效更精准的解决特定的问题,能够更好地更精准地释放 DeepSeek-R1 的所有实力。

总结与建议

总的来说,阿里云百炼 API 确实提供了十分稳定的 DeepSeek-R1 接入方式(其他模型也很棒),并且这次要评测的解决方案也十分易懂易操作,整个解决方案下来不到 5 分钟,其中没有遇到任何错误,就把 Chatbox 设置好了!当然,如果有更专业或者需要落地的应用的话,我还是更推荐部署 Dify 来进行 AI 应用的建立,不仅能提供更好更精准的回复,而且功能也十分强大,主要是对于普通用户来说部署也不是很困难的事情!相信阿里云也可以为更多用户提供这种更精准的解决方案!

相关文章
|
1天前
|
人工智能 安全 数据可视化
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
Gemma 3 是谷歌最新推出的开源多模态AI模型,支持超过35种语言,具备文本、图像及短视频处理能力,提供四种模型尺寸,优化单GPU性能,适用于多种AI应用场景。
86 8
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
|
3天前
|
人工智能 弹性计算 运维
|
4天前
|
域名解析 人工智能 API
使用 Websoft9 面板部署 LobeChat,打造个人 AI 大脑
本书详细介绍了从服务器环境准备到LobeChat部署与维护的全过程。首先,指导用户选购云服务器并配置安全组和SSH登录;接着,通过Websoft9面板一键安装并初始化,支持域名解析。随后,重点讲解了LobeChat的部署方法,包括应用市场和手动部署,并深入探讨多模型接入及插件扩展。最后,提供了日常维护命令和常见问题解决方法,确保系统稳定运行。适合新手及进阶用户参考。
29 0
|
4天前
|
人工智能 Kubernetes 安全
积极拥抱AI,F5携手NVIDIA赋能加速AI应用交付
积极拥抱AI,F5携手NVIDIA赋能加速AI应用交付
21 4
|
5天前
|
人工智能 前端开发 JavaScript
AI程序员:通义灵码 2.0应用VScode前端开发深度体验
AI程序员:通义灵码 2.0应用VScode前端开发深度体验,在软件开发领域,人工智能技术的融入正深刻改变着程序员的工作方式。通义灵码 2.0 作为一款先进的 AI 编程助手,与广受欢迎的代码编辑器 Visual Studio Code(VScode)相结合,为前端开发带来了全新的可能性。本文将详细分享通义灵码 2.0 在 VScode 前端开发环境中的深度使用体验。
89 2
|
8天前
|
人工智能 弹性计算 自然语言处理
5分钟部署,解锁100种和AI大模型的交互可能
阿里云弹性计算推出了一套高效、易用的个人AI大模型部署方案,帮助用户快速搭建专属的AI主页,开启智能化新体验,真正的实把“AI玩出花”。
|
8天前
|
人工智能 运维 自然语言处理
2025保姆级JupyterLab 4.0安装指南|全平台部署+AI编程环境配置
JupyterLab 是下一代交互式计算开发环境,2025年发布的4.0版本新增多语言内核支持(Python/R/Julia/JavaScript一键切换)、实时协作功能、AI辅助编程(集成GPT-5代码补全与错误诊断)和可视化调试器等特性。本文详细介绍其技术定位、跨平台安装方案、安装流程、高阶功能配置、典型应用场景及故障排查指南,帮助用户高效使用JupyterLab进行开发。
|
9天前
|
人工智能 搜索推荐 安全
基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴
AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。
|
9天前
|
人工智能 弹性计算 自然语言处理
5分钟部署,解锁100种和AI大模型的交互可能
在AI技术飞速发展的今天,个人大模型的部署与应用面临复杂流程和高门槛。阿里云推出高效、易用的个人AI大模型部署方案,支持多模型集成、灵活扩展和定制化主页,帮助用户快速搭建专属AI主页,实现智能化新体验,真正把“AI玩出花”。
|
11天前
|
弹性计算 人工智能 API
部署AI网站-进阶配置
通过Open WebUI部署个人AI网站后,您可能还面临如下问题:希望使用DeepSeek R1模型对话问答时显示思考过程、 希望可以在AI网站上使用联网搜索、希望将AI网站分享给其他用户使用、希望在AI主页上使用多种模型等。本文将介绍如何通过相应配置,解决这些问题。

热门文章

最新文章