deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!

简介: DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。

deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!DeepSeek爆火,如何免费部署到你的电脑上?打造最强大脑获取顶级推理能力教程来了,先在你的本地电脑上安装Ollama,然后在Ollama搜索选择DeepSeek模型,即可成功在你的本地电脑上部署DeepSeek,码笔记整理详细教程如下:

安装Ollama

打开Ollama官网:ollama.com 点击“Download”,如下图:

本地电脑安装Ollama

本地电脑安装Ollama

根据你本地电脑的操作系统类型下载对应的Ollama版本,目前Ollama支持macOS、Linux和Windows主流操作系统。关于Ollama的下载和安装,码笔记就不多赘述。

运行Ollama

打开Ollama,只需要确保你的电脑上已经运行Ollama即可。以Mac为例,在顶部菜单栏中看到这个小羊驼的图标即可,如下图:

打开并运行Ollama

打开并运行Ollama

Ollama官网搜索deepseek

打开Ollama官网:https://ollama.com/ 搜索“deepseek”,如下图:

deepseek-r1大模型

deepseek-r1大模型

选择deepseek-r1不同模型大小

点击deepseek-r1,你会发现有多个不同大小的模型版本,如1.5b、7b、8b、14b、32b、70b或671b,模型大小不同,可适配的电脑显存、显卡及内存配置也不同,大家可以参考下表,根据配置选择不同大小的模型,参考:deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?

如何运行模型?

如何运行deepseek?运行模型很简单,确定好想要的模型后,复制对应的命令到你的终端并执行。

DeepSeek-R1-Distill-Qwen-1.5B:

ollama run deepseek-r1:1.5b
AI 代码解读

DeepSeek-R1-Distill-Qwen-7B:

ollama run deepseek-r1:7b
AI 代码解读

DeepSeek-R1-Distill-Llama-8B:

ollama run deepseek-r1:8b
AI 代码解读

DeepSeek-R1-Distill-Qwen-14B:

ollama run deepseek-r1:14b
AI 代码解读

DeepSeek-R1-Distill-Qwen-32B:

ollama run deepseek-r1:32b
AI 代码解读

DeepSeek-R1-Distill-Llama-70B:

ollama run deepseek-r1:70b
AI 代码解读

码笔记以1.5B为例,复制 ollama run deepseek-r1:1.5b 在终端粘贴并执行,然后等待进度条pulling manifest下载100%,如下图:

DeepSeek pulling manifest

DeepSeek pulling manifest

然后就可以开始折腾了,例如在终端输入“阿里云会让我财富自由吗?”

阿里云会让我财富自由吗?

阿里云会让我财富自由吗?

如果想退出模型,在终端输入/bye即可。

本文关于DeepSeek的教程,是基于Ollama这个大模型运行框架,更多关于Ollama的命令操作,请参考上网搜索Ollama终端指令,本文不多赘述。

目录
打赏
0
137
86
10
219
分享
相关文章
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
2820 112
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。
698 16
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
三分钟让Dify接入Ollama部署的本地大模型!
本文介绍了如何运行 Ollama 并在 Dify 中接入 Ollama 模型。通过命令 `ollama run qwen2:0.5b` 启动 Ollama 服务,访问 `http://localhost:11434`。在 Dify 中添加模型时,需填写正确的基础 URL 和模型信息。针对 Docker 部署的报错问题,提供了 Mac、Linux 和 Windows 上的解决方案,确保容器能正确访问 Ollama 服务。
72 1
三分钟让Dify接入Ollama部署的本地大模型!
0 代码!2 种方式,一键部署 DeepSeek 系列模型
DeepSeek 凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill 是使用 DeepSeek-R1 生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。依托于函数计算 FC 算力,Serverless+ AI 开发平台 CAP 现已提供模型服务、应用模版两种部署方式辅助您部署 DeepSeek R1 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中。欢迎您立即体验。
企业级LLM推理部署新范式:基于ACK的DeepSeek蒸馏模型生产环境落地指南
本教程演示如何在ACK中使用vLLM框架快速部署DeepSeek R1模型推理服务。
使用Ollama和Botnow本地部署DeepSeek R1模型的对比分析
本文详细对比了使用Ollama和Botnow两种方式在本地运行DeepSeek R1等开源大模型的不同。通过Ollama,用户可以在个人电脑(如MacBook Pro)上快速部署和测试模型;而Botnow则提供了企业级的API接入和本地部署方案,支持更复杂的应用场景。具体步骤包括环境准备、模型下载与运行、图形化界面操作等,帮助用户选择最适合自己的方式体验大模型的强大功能。
94 0
Qwen2.5 全链路模型体验、下载、推理、微调、部署实战!
在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并提供了宝贵的反馈。在这段时间里,通义千问团队专注于创建更智能、更博学的语言模型。今天,Qwen 家族的最新成员:Qwen2.5系列正式开源
Qwen2.5 全链路模型体验、下载、推理、微调、部署实战!
|
4月前
|
ollama 大模型部署 工具 | AIGC
Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。【10月更文挑战第1天】
760 1
借助PAI-EAS一键部署ChatGLM,并应用LangChain集成外部数据
【8月更文挑战第8天】借助PAI-EAS一键部署ChatGLM,并应用LangChain集成外部数据
136 1
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等