DeepSeek——DeepSeek模型部署实战

本文涉及的产品
视觉智能开放平台,图像通用资源包5000点
NLP 自学习平台,3个模型定制额度 1个月
视觉智能开放平台,视频通用资源包5000点
简介: 本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。

摘要

文章主要介绍了DeepSeek大模型的本地部署方法、使用方式以及API接入相关内容。首先指出可通过下载Ollama来部署DeepSeek-R1模型,并给出了模型不同参数版本及存储信息。接着说明了如何通过Chatbox官网下载并接入DeepSeek API,以及如何接入本地部署模型。最后提及了DeepSeek官网使用和集成工具使用相关内容。

1. DeepSeek大模型本地部署

1.1. 下载Ollama(Ollama

image.gif 编辑

点击DeepSeek-R1的链接可以看到有关deepseek-r1的详细介绍:

image.gif 编辑

1.2. 部署deepseek-r1模型

目前deepseek-r1模型大小提供了7个选择:1.5b、7b、8b、14b、32b、70b、671b。

你可以根据你的硬件情况选择,通常模型大小(参数量)越大,模型的理解和生成能力越强,但也会消耗更多的计算资源。点击Download按钮下载符合自己平台的Ollama:

image.gif 编辑

我这里选择macOS,点击下载。下载文件大小不到200M,文件名为:Ollama-darwin.zip。解压后打开Ollama应用程序,提示:

image.gif 编辑

1.3. 使用deepseek-r1模型

按照提示,打开终端,使用 Command + Space 快捷键调用 terminal

image.gif 编辑

这里Ollama默认给出的例子是下载/运行llama3.2大模型,我们这里不使用这个llama3.2模型,直接下载/运行deepseek,参数选择最小的1.5b,在终端窗口运行下面命令:

ollama run deepseek-r1:1.5b

image.gif

image.gif 编辑

jingyuzhao@jingyuzhao-mac ~ % ollama run deepseek-r1:1.5b
pulling manifest 
pulling manifest 
pulling manifest 
pulling manifest 
pulling manifest 
pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████████████████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████████████████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
>>> Send a message (/? for help)

image.gif

这里就直接可以和DeepSeek对话了:

>>> Hi! Who are you?
<think>
</think>
Hi! I'm DeepSeek-R1, an artificial intelligence assistant created by DeepSeek. I'm at your service 
and would be delighted to assist you with any inquiries or tasks you may have.
>>> 你好,你是谁?
<think>
</think>
你好!我是DeepSeek-R1,一个由深度求索公司开发的智能助手。我擅长通过思考来帮您解答复杂的数学,代码和
逻辑推理等理工类问题。 Feel free to ask me anything you'd like me to know! 
>>> Send a message (/? for help)

image.gif

2. DeepSeek大模型API接入

2.1. 下载Chatbox官方网站(Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

image.gif 编辑

image.gif 编辑

我这里还是Intel-based的MAC,下载的Chatbox-1.9.7.dmg,大小100M多点,点击安装,按下面提示拖到Applications内:

image.gif 编辑

2.2. Chatbox接入DeepSeek API

image.gif 编辑

image.gif 编辑

image.gif 编辑

image.gif 编辑

2.3. Chatbox接入DeepSeek本地部署模型

实际上,若选择这个你本地的DeepSeek模型。实际正确应该选择OLLAMA API,然后就可以看到我们上一步安装好的deepseek-r1:1.5b

image.gif 编辑

配置好DeepSeek本地模型之后,就可以实现在断网情况下自由问答了,比如,此刻我正在写这篇文章,于是就问他帮我想名字:

我正在写一篇文章,手动部署DeepSeek本地模型在。请你帮我重新生成10个吸引眼球的标题供我选择。

image.gif

image.gif 编辑

3. DeepSeek大模型使用

3.1. DeepSeek官网使用(DeepSeek

image.gif 编辑

3.2. DeepSeek集成工具使用(https://poe.com/

image.gif 编辑

博文参考

目录
打赏
0
75
77
0
72
分享
相关文章
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
快速使用 DeepSeek-R1 满血版
DeepSeek是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。近年来,DeepSeek不断迭代,从DeepSeek-V2到参数达6710亿的DeepSeek-V3,再到性能比肩GPT-4的DeepSeek-R1,每次都带来重大技术突破。其开源策略降低了AI应用门槛,推动了AI普惠化。通过阿里云百炼调用满血版API,用户可以快速部署DeepSeek,享受高效、低成本的云端服务,最快10分钟完成部署,且提供免费token,极大简化了开发流程。
191244 30
快速使用 DeepSeek-R1 满血版
|
20小时前
|
即刻拥有DeepSeek-R1满血版
阿里云推出基于R1满血版DeepSeek的AI解决方案,助您高效学习与工作!访问专属链接进入详情页,按指引免费体验。具体步骤包括:注册阿里云账号、开通百炼模型服务、获取API-KEY、配置Chatbox客户端并测试对话功能。通过简单操作,即可调用DeepSeek-R1模型,实现智能化交互。快速上手,开启AI新体验!
35 4
用好Deepseek
构建高效提问体系,让deepseek成为你的智商增量。通过高维提问,解锁其隐藏潜力,不再只是搬运答案。细节与认知厚度决定反馈质量,使用STAR法则(情景、任务、行动、结果)优化提问,AI不仅能提供答案,更能帮你搭建完整解决方案,提升认知水平。
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
1255 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
|
29天前
|
API
阿里云百炼:零门槛一键搭建 DeepSeek-R1 满血版
本文介绍如何使用阿里云百炼平台和chatbox客户端,一键搭建DeepSeek R1满血版
107 18
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
3852 13
DeepSeek-R1-Distill-Qwen-1.5B基于MindIE推理实践
基于MindIE实现DeepSeek-R1-Distill-Qwen-1.5B的纯模型推理和服务化推理。
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
What?废柴, 还在本地部署DeepSeek吗?Are you kidding?
拥有DeepSeek-R1满血版实践教程及评测报告
3079 11

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等