DeepSeek-R1+对话页面本地部署保姆级教程

简介: DeepSeek-R1+对话页面本地部署保姆级教程

 deepseek本地部署

第一步:安装ollama

到Ollama官网 https://ollama.com,点击下载,然后选择适合自己系统的版本,这里选择Windows:

Download Ollama on Windows

image.gif 编辑

下载完成之后选择安装,安装完成之后任务栏会有一个常驻的小羊驼标志。

image.gif 编辑

接下来让我们回到官网,找到models去寻找deepseek-r1(现在很火,第一个就是)

ollama 官网

Ollama

image.gif 编辑

进入这个界面后,点击下拉菜单,可以看到多个版本。(数字越大,对显存要求越高):

image.gif 编辑

选择好模型之后,点击右侧这个按钮,复制指令,这里是:ollama run deepseek-r1:7b

image.gif 编辑

使用win+r,输入cmd召唤出命令行窗口

黏贴运行刚才复制的命令,开始下载,7b模型容量大约4.7GB,请保持网络畅通:

image.gif 编辑

下载完成之后,就可以和DeepSeek对话了:

image.gif 编辑

但是在命令行窗口下对话,还是太抽象,我们需要一个美观的图文交互界面。

二、安装Docker

因此要用到Docker这个容器化平台,先从官网 https://www.docker.com 下载,这里依然选择Windows版:

image.gif 编辑

下载后安装,选项全默认即可:

image.gif 编辑

安装完成需要重新启动Windows:

image.gif 编辑

重启后需要同意Docker的条款,并注册你的账号:

image.gif 编辑

**

三、安装Open WebUI

**

接下来到Open WebUI这个开源工具的代码页:

https://github.com/open-webui/open-webui

找到“If Ollama is on your computer, use this command”这一项,点击右边的按钮复制这个指令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

image.gif 编辑

再次打开命令行窗口,黏贴刚才复制的命令,安装Open WebUI:

image.gif 编辑

安装完成后,你会发现你的Docker界面里多了Open WebUI的条目。

image.gif 编辑

四、在图形化界面下运行DeepSeek

还记得之前装好的Ollama吗?你需要在命令行窗口里再次执行:ollama run deepseek-r1:32b

保持命令行窗口开启,然后点击Docker桌面端的这个位置:

image.gif 编辑

首次使用,会打开一个网页,点击“开始使用”:

image.gif 编辑

把你之前注册的账号名字密码填进去,登录:

image.gif 编辑

这里点击“确认,开始使用”:

image.gif 编辑

图形界面的DeepSeek-R1,准备就绪,随时待命!

Enjoy!!!!


目录
相关文章
|
1月前
|
安全 API Docker
[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南
本文教你用 Docker 一键部署 Open WebUI,为本地 Ollama 模型打造媲美 ChatGPT 的图形化界面:支持流畅对话、本地知识库(RAG)检索增强、自定义角色(Agent),全程私有化、零数据上传,10分钟即可启用!
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
7143 8
|
8月前
|
存储 人工智能 自然语言处理
DeepSeek R1+Open WebUI实现本地知识库的搭建和局域网访问
本文介绍了使用 DeepSeek R1 和 Open WebUI 搭建本地知识库的详细步骤与注意事项,涵盖核心组件介绍、硬件与软件准备、模型部署、知识库构建及问答功能实现等内容,适用于本地文档存储、向量化与检索增强生成(RAG)场景的应用开发。
3237 0
|
11月前
|
人工智能 Kubernetes API
Dify+DeepSeek实战教程!企业级 AI 文档库本地化部署,数据安全与智能检索我都要
接下来这篇文章,就打算用最接地气的方式,手把手带你从 0 到 1 搭建一套专属的本地知识库系统。无论你是想优化企业内部文档检索(不用担心敏感数据上传云端的风险),还是像我一样想为用户打造更智能的文档服务,都能跟着步骤一步步实现。咱们不卖关子,直接上干货
3327 14
Dify+DeepSeek实战教程!企业级 AI 文档库本地化部署,数据安全与智能检索我都要
|
弹性计算 监控 并行计算
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
|
7月前
|
前端开发 Java
Java实现微信公众号发送通知
Java实现微信公众号发送通知
448 61
|
11月前
|
人工智能 自然语言处理 安全
90.9K star!一键部署AI聊天界面,这个开源项目让大模型交互更简单!
"像使用微信一样操作大模型!Open WebUI 让AI对话从未如此简单"
1394 0
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
7478 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手