DeepSeek——DeepSeek模型部署实战

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
视觉智能开放平台,视频资源包5000点
简介: 本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。

摘要

文章主要介绍了DeepSeek大模型的本地部署方法、使用方式以及API接入相关内容。首先指出可通过下载Ollama来部署DeepSeek-R1模型,并给出了模型不同参数版本及存储信息。接着说明了如何通过Chatbox官网下载并接入DeepSeek API,以及如何接入本地部署模型。最后提及了DeepSeek官网使用和集成工具使用相关内容。

1. DeepSeek大模型本地部署

1.1. 下载Ollama(Ollama

image.gif 编辑

点击DeepSeek-R1的链接可以看到有关deepseek-r1的详细介绍:

image.gif 编辑

1.2. 部署deepseek-r1模型

目前deepseek-r1模型大小提供了7个选择:1.5b、7b、8b、14b、32b、70b、671b。

你可以根据你的硬件情况选择,通常模型大小(参数量)越大,模型的理解和生成能力越强,但也会消耗更多的计算资源。点击Download按钮下载符合自己平台的Ollama:

image.gif 编辑

我这里选择macOS,点击下载。下载文件大小不到200M,文件名为:Ollama-darwin.zip。解压后打开Ollama应用程序,提示:

image.gif 编辑

1.3. 使用deepseek-r1模型

按照提示,打开终端,使用 Command + Space 快捷键调用 terminal

image.gif 编辑

这里Ollama默认给出的例子是下载/运行llama3.2大模型,我们这里不使用这个llama3.2模型,直接下载/运行deepseek,参数选择最小的1.5b,在终端窗口运行下面命令:

ollama run deepseek-r1:1.5b

image.gif

image.gif 编辑

jingyuzhao@jingyuzhao-mac ~ % ollama run deepseek-r1:1.5b
pulling manifest 
pulling manifest 
pulling manifest 
pulling manifest 
pulling manifest 
pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████████████████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████████████████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
>>> Send a message (/? for help)

image.gif

这里就直接可以和DeepSeek对话了:

>>> Hi! Who are you?
<think>
</think>
Hi! I'm DeepSeek-R1, an artificial intelligence assistant created by DeepSeek. I'm at your service 
and would be delighted to assist you with any inquiries or tasks you may have.
>>> 你好,你是谁?
<think>
</think>
你好!我是DeepSeek-R1,一个由深度求索公司开发的智能助手。我擅长通过思考来帮您解答复杂的数学,代码和
逻辑推理等理工类问题。 Feel free to ask me anything you'd like me to know! 
>>> Send a message (/? for help)

image.gif

2. DeepSeek大模型API接入

2.1. 下载Chatbox官方网站(Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

image.gif 编辑

image.gif 编辑

我这里还是Intel-based的MAC,下载的Chatbox-1.9.7.dmg,大小100M多点,点击安装,按下面提示拖到Applications内:

image.gif 编辑

2.2. Chatbox接入DeepSeek API

image.gif 编辑

image.gif 编辑

image.gif 编辑

image.gif 编辑

2.3. Chatbox接入DeepSeek本地部署模型

实际上,若选择这个你本地的DeepSeek模型。实际正确应该选择OLLAMA API,然后就可以看到我们上一步安装好的deepseek-r1:1.5b

image.gif 编辑

配置好DeepSeek本地模型之后,就可以实现在断网情况下自由问答了,比如,此刻我正在写这篇文章,于是就问他帮我想名字:

我正在写一篇文章,手动部署DeepSeek本地模型在。请你帮我重新生成10个吸引眼球的标题供我选择。

image.gif

image.gif 编辑

3. DeepSeek大模型使用

3.1. DeepSeek官网使用(DeepSeek

image.gif 编辑

3.2. DeepSeek集成工具使用(https://poe.com/

image.gif 编辑

博文参考

相关文章
|
1月前
|
人工智能 自然语言处理 测试技术
在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型
如何在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型
293 97
|
1月前
|
人工智能 自然语言处理 API
快速使用 DeepSeek-R1 满血版
DeepSeek是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。近年来,DeepSeek不断迭代,从DeepSeek-V2到参数达6710亿的DeepSeek-V3,再到性能比肩GPT-4的DeepSeek-R1,每次都带来重大技术突破。其开源策略降低了AI应用门槛,推动了AI普惠化。通过阿里云百炼调用满血版API,用户可以快速部署DeepSeek,享受高效、低成本的云端服务,最快10分钟完成部署,且提供免费token,极大简化了开发流程。
191194 28
快速使用 DeepSeek-R1 满血版
|
1月前
|
人工智能
用好Deepseek
构建高效提问体系,让deepseek成为你的智商增量。通过高维提问,解锁其隐藏潜力,不再只是搬运答案。细节与认知厚度决定反馈质量,使用STAR法则(情景、任务、行动、结果)优化提问,AI不仅能提供答案,更能帮你搭建完整解决方案,提升认知水平。
|
18天前
|
API
阿里云百炼:零门槛一键搭建 DeepSeek-R1 满血版
本文介绍如何使用阿里云百炼平台和chatbox客户端,一键搭建DeepSeek R1满血版
96 18
|
1月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
3793 13
|
1月前
|
弹性计算 Serverless API
What?废柴, 还在本地部署DeepSeek吗?Are you kidding?
拥有DeepSeek-R1满血版实践教程及评测报告
3062 11
|
12天前
|
机器学习/深度学习 存储 人工智能
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
|
15天前
|
人工智能 搜索推荐 API
零门槛、即刻拥有 DeepSeek-R1 满血版
今天来教大家如何用阿里云百炼平台和开源工具 Open WebUI,零门槛(甚至零成本)、即刻拥有 DeepSeek-R1 满血版!全程无需复杂代码,跟着我做就能拥有企业级 AI 服务!我只花了不到半小时就完成了整个服务的部署。
|
23天前
|
机器学习/深度学习 人工智能 测试技术
为什么说DeepSeek的R1-Zero比R1更值得关注?
为什么说DeepSeek的R1-Zero比R1更值得关注?
|
1月前
|
人工智能 自然语言处理 程序员
在通义灵码里用上DeepSeek-V3 和 DeepSeek-R1 满血版671B模型
除了 AI 程序员的重磅上线外,近期通义灵码能力再升级全新上线模型选择功能,目前已经支持 Qwen2.5、DeepSeek-V3 和 R1系列模型,用户可以在 VSCode 和 JetBrains 里搜索并下载最新通义灵码插件,在输入框里选择模型,即可轻松切换模型。
2058 14