【保姆级教程】3步搞定DeepSeek本地部署

简介: DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。

没错!这篇博客的标题就是使用DeepSeek给予的灵感,最终结合自身的对比衡量,使用了较喜欢的标题。(如果冲着教程,建议直接查看“部署步骤”)

Pasted Graphic 59.png

伟大的DeepSeek

       DeepSeek在2025年春节期间突然爆火出圈,推出了自研的千亿参数级大模型DeepSeek-R1,具备多模态理解、复杂推理和持续学习能力,支持长上下文处理(最高128K tokens)。DeepSeek掀起了一批暴热的流量,放眼世界,DeepSeek无疑是一部伟大的作品。

AIME 2024 Codeforces GPo Dlamomd.png image.gif

       对飙openAI o1正式版,DeepSeek的诞生标志着国产大模型能够在世界AI领域具有先进性、可塑性和发展性。

部署意义

       在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。

314000 P.png

优势

  • 提升稳定性:不请求网络,避免服务器繁忙的问题。
  • 提高安全性:不联网,部署在本地,个人数据隐私性大大提高。
  • 定制化:可以自行训练大模型,打造属于自己专业的“玩伴”。
  • 低成本:打开网页就可以问,没有什么多余成本。

劣势

  • 高成本:前期部署需要一定时间,如果换模型又需要下载。
  • 局限性:一般自己用的计算机CPU、GPU性能十分有限,绝大多无法支撑DeepSeek完全体。
  • 灵活性差:在线版是DeepSeek官方维护的,一直在迭代和提升能力,本地无法第一时间跟上官方优化的步伐。

部署步骤

保姆级教程来啦!我们的目标是要将DeepSeek在本地部署,能够在不联网的情况下使用DeepSeek帮助我们解决问题。老规矩,三步走。

  • 下载ollama
  • 下载DeepSeek-r1大模型
  • 尽情享受吧(建议再进行UI可视化部署)

下载ollama

       我们要将DeepSeek部署到本地,至少先安装基础能力,Ollama 是一个开源框架,可以非常便捷部署和运行大型语言模型。【ollama官网】

       进入官网,点击Download,网站会根据系统类型匹配下载包的系统类型。(有macOs、windows、Linux)

Pasted Graphic 25.png

       本人电脑是mac系统,所以下载的macOs的产物,点击“Download for macOs”。

Pasted Graphic 26.png

       下载完毕之后解压,运行。

Install the command line.png

image.gif        安装完毕后,打开cmd,输入命令ollam。如果出现ollama相关的命令集合,则第一步顺利完成!

ollama

mayuhao - •zsh - 94×20.png

下载deepseek-r1

       回到ollama官网,在搜索框输入“deepseek-r1”,去下载r1大模型。

Pasted Graphic 31.png

image.gif        这里先选择一下模型的量级,我这里选择了7b。(越大越强大,但配置要求更高,自己玩的话7b足够,如果电脑性能较差建议1.5b)

Pasted Graphic 32.png

       复制代码在命令行执行,等待下载完毕。

mayuhao - ollama run deepseek-r1- 80x24.png

ollama run deepseek-r1:7b

途中可能会越来越慢,最终速度可能会定在200kb/s左右,这里分享一个小技巧。如果下载速度一直很慢甚至停滞不前,可以ctrl+c一下,继续执行刚才的命令。(有断点续传,每次初始加载会突破峰值)

mayuhao - ollama run deepseok-r1- 80x24.png

下载完毕后,就可以和它对话了,7b的量级属实有些不够,但也算是完成了本地部署。

mayuhao. ollama run deepseok-r1 - 80x24.png

但是,用cmd去交流有些粗糙了吧,是否可以在本地运行一个web应用,从而实现UI可视化呢!

搭建可视化UI

       最简单的方式,我们使用Chatbox AI快速载入模型,即可使用本地的DeepSeek-r1模型。首先点击“启动网页版”。【Chatbox AI官网】

Chatbox Al,.png

进入“网页版”后,点击“Settings”打开设置面板。

◎ s a oyay oo.png

在提供模型选择栏中选择“Ollama API”。

Pasted Graphic 64.png

在Model选择中选择“deepSeek-r1:latest”,不同的版本可能名称不同,选就对了。其他的配置项都按照预设,点击“save”即可。

O MN S0 SAAY  GE O APwe.png

image.gif 最终,我们可以看到对话框载入了我们选择的deepseek-r1模型,尽情享用吧! image.gif

D Chase D Ael cAal.png

没有Model的情况

       在选择Model时可能出现以下情况,下拉框中并没有任何模型。这是因为ChatBox认定系统中没有可用的模型。

image.gif MpW127.0.0.111434.png

       这就配置一下ollama的远程服务了,打开cmd,分别执行以下命令,将本地与ollama的远程服务进行对接。(macOS)

launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"

最终关闭ollama,再重启,刷新页面,重新“Settings”就好了。

image.png

       如果是windows或者Linux系统,可以参考ChatBox说明文档。【ChatBox说明文档】

总结

       本地部署最大的好处是稳定,最大的劣势在于电脑没有强大的配置无法支撑完全体DeepSeek的大模型。说真的,本地部署纯粹只是玩儿一下,671b的完全体需要404GB空间以及强大的算力,是我们普通计算机远不能及的条件。在大量使用DeepSeek后发现,虽然DeepSeek完全体目前与GPT-4o有较大差距,但事物的发展总是需要时间的,这次DeepSeek给我国AI领域带了个好头,我相信DeepSeek的潜力,也相信我们国家的AI技术会越来越强。

image.gif temp1.png

相关文章
|
数据安全/隐私保护 Docker Windows
DeepSeek-R1+对话页面本地部署保姆级教程
DeepSeek-R1+对话页面本地部署保姆级教程
1248 14
|
11月前
|
弹性计算 监控 并行计算
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
|
机器学习/深度学习 人工智能 开发者
阿里云支持DeepSeek-V3和DeepSeek-R1全自动安装部署,小白也能轻松上手!
阿里云PAI平台支持DeepSeek-V3和DeepSeek-R1大模型的全自动安装部署,零代码一键完成从训练到推理的全流程。用户只需开通PAI服务,在Model Gallery中选择所需模型并点击部署,即可快速生成PAI-EAS服务,获取调用信息。整个过程简单快捷,适合各水平开发者轻松上手。
3368 80
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
7067 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
3784 11
阿里云PAI部署DeepSeek及调用
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
12月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
机器学习/深度学习 人工智能 开发者
DeepSeek安装部署指南,基于阿里云PAI零代码,小白也能轻松搞定!
阿里云PAI平台支持零代码一键部署DeepSeek-V3和DeepSeek-R1大模型,用户可轻松实现从训练到部署再到推理的全流程。通过PAI Model Gallery,开发者只需简单几步即可完成模型部署,享受高效便捷的AI开发体验。具体步骤包括:开通PAI服务、进入控制台选择模型、一键部署并获取调用信息。整个过程简单快捷,极大降低了使用门槛。
2129 43
|
缓存 自然语言处理 安全
快速调用 Deepseek API!【超详细教程】
Deepseek 强大的功能,在本教程中,将指导您如何获取 DeepSeek API 密钥,并演示如何使用该密钥调用 DeepSeek API 以进行调试。