DeepSeek-R1+对话页面本地部署保姆级教程

简介: DeepSeek-R1+对话页面本地部署保姆级教程

 deepseek本地部署

第一步:安装ollama

到Ollama官网 https://ollama.com,点击下载,然后选择适合自己系统的版本,这里选择Windows:

Download Ollama on Windows

image.gif 编辑

下载完成之后选择安装,安装完成之后任务栏会有一个常驻的小羊驼标志。

image.gif 编辑

接下来让我们回到官网,找到models去寻找deepseek-r1(现在很火,第一个就是)

ollama 官网

Ollama

image.gif 编辑

进入这个界面后,点击下拉菜单,可以看到多个版本。(数字越大,对显存要求越高):

image.gif 编辑

选择好模型之后,点击右侧这个按钮,复制指令,这里是:ollama run deepseek-r1:7b

image.gif 编辑

使用win+r,输入cmd召唤出命令行窗口

黏贴运行刚才复制的命令,开始下载,7b模型容量大约4.7GB,请保持网络畅通:

image.gif 编辑

下载完成之后,就可以和DeepSeek对话了:

image.gif 编辑

但是在命令行窗口下对话,还是太抽象,我们需要一个美观的图文交互界面。

二、安装Docker

因此要用到Docker这个容器化平台,先从官网 https://www.docker.com 下载,这里依然选择Windows版:

image.gif 编辑

下载后安装,选项全默认即可:

image.gif 编辑

安装完成需要重新启动Windows:

image.gif 编辑

重启后需要同意Docker的条款,并注册你的账号:

image.gif 编辑

**

三、安装Open WebUI

**

接下来到Open WebUI这个开源工具的代码页:

https://github.com/open-webui/open-webui

找到“If Ollama is on your computer, use this command”这一项,点击右边的按钮复制这个指令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

image.gif 编辑

再次打开命令行窗口,黏贴刚才复制的命令,安装Open WebUI:

image.gif 编辑

安装完成后,你会发现你的Docker界面里多了Open WebUI的条目。

image.gif 编辑

四、在图形化界面下运行DeepSeek

还记得之前装好的Ollama吗?你需要在命令行窗口里再次执行:ollama run deepseek-r1:32b

保持命令行窗口开启,然后点击Docker桌面端的这个位置:

image.gif 编辑

首次使用,会打开一个网页,点击“开始使用”:

image.gif 编辑

把你之前注册的账号名字密码填进去,登录:

image.gif 编辑

这里点击“确认,开始使用”:

image.gif 编辑

图形界面的DeepSeek-R1,准备就绪,随时待命!

Enjoy!!!!


目录
相关文章
|
10月前
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
6053 8
|
10月前
|
人工智能 缓存 Cloud Native
解锁 DeepSeek 安全接入、稳定运行新路径
聚焦于企业部署 DeepSeek 的应用需求,本文介绍了模型权重下载及多种部署方案,还阐述了大模型应用落地的常见需求,帮助用户逐步提升模型应用效果。
1276 245
|
10月前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
6183 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
10月前
|
机器学习/深度学习 人工智能 开发者
阿里云支持DeepSeek-V3和DeepSeek-R1全自动安装部署,小白也能轻松上手!
阿里云PAI平台支持DeepSeek-V3和DeepSeek-R1大模型的全自动安装部署,零代码一键完成从训练到推理的全流程。用户只需开通PAI服务,在Model Gallery中选择所需模型并点击部署,即可快速生成PAI-EAS服务,获取调用信息。整个过程简单快捷,适合各水平开发者轻松上手。
3229 80
|
10月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
10月前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
3662 11
阿里云PAI部署DeepSeek及调用
|
10月前
|
人工智能 Linux API
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。
3688 19
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
|
10月前
|
IDE Linux API
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。
2293 15
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
|
10月前
|
机器学习/深度学习 弹性计算 人工智能
在阿里云ECS上一键部署DeepSeek-R1
Open WebUI 和 Ollama 的联合,通过集成 DeepSeek-R1 的强大功能,赋予每一位用户使用尖端 AI 技术的能力,使得复杂的 AI 技术不再是遥不可及的梦想。无论是研究人员、开发者,还是企业用户,您都能从这一创新中获得新的灵感和增长点。本文介绍通过计算巢一键部署和使用DeepSeek-R1。
在阿里云ECS上一键部署DeepSeek-R1