deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!

简介: DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。

deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!DeepSeek爆火,如何免费部署到你的电脑上?打造最强大脑获取顶级推理能力教程来了,先在你的本地电脑上安装Ollama,然后在Ollama搜索选择DeepSeek模型,即可成功在你的本地电脑上部署DeepSeek,码笔记整理详细教程如下:

安装Ollama

打开Ollama官网:ollama.com 点击“Download”,如下图:

本地电脑安装Ollama

本地电脑安装Ollama

根据你本地电脑的操作系统类型下载对应的Ollama版本,目前Ollama支持macOS、Linux和Windows主流操作系统。关于Ollama的下载和安装,码笔记就不多赘述。

运行Ollama

打开Ollama,只需要确保你的电脑上已经运行Ollama即可。以Mac为例,在顶部菜单栏中看到这个小羊驼的图标即可,如下图:

打开并运行Ollama

打开并运行Ollama

Ollama官网搜索deepseek

打开Ollama官网:https://ollama.com/ 搜索“deepseek”,如下图:

deepseek-r1大模型

deepseek-r1大模型

选择deepseek-r1不同模型大小

点击deepseek-r1,你会发现有多个不同大小的模型版本,如1.5b、7b、8b、14b、32b、70b或671b,模型大小不同,可适配的电脑显存、显卡及内存配置也不同,大家可以参考下表,根据配置选择不同大小的模型,参考:deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?

如何运行模型?

如何运行deepseek?运行模型很简单,确定好想要的模型后,复制对应的命令到你的终端并执行。

DeepSeek-R1-Distill-Qwen-1.5B:

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B:

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B:

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B:

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B:

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B:

ollama run deepseek-r1:70b

码笔记以1.5B为例,复制 ollama run deepseek-r1:1.5b 在终端粘贴并执行,然后等待进度条pulling manifest下载100%,如下图:

DeepSeek pulling manifest

DeepSeek pulling manifest

然后就可以开始折腾了,例如在终端输入“阿里云会让我财富自由吗?”

阿里云会让我财富自由吗?

阿里云会让我财富自由吗?

如果想退出模型,在终端输入/bye即可。

本文关于DeepSeek的教程,是基于Ollama这个大模型运行框架,更多关于Ollama的命令操作,请参考上网搜索Ollama终端指令,本文不多赘述。

目录
相关文章
|
人工智能 监控 Swift
魔搭社区LLM模型部署实践 —— 以ChatGLM3为例
本文将以ChatGLM3-6B为例,介绍在魔搭社区如何部署LLM
|
1月前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
4229 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
1月前
|
人工智能 运维 Serverless
0 代码!2 种方式,一键部署 DeepSeek 系列模型
DeepSeek 凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill 是使用 DeepSeek-R1 生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。依托于函数计算 FC 算力,Serverless+ AI 开发平台 CAP 现已提供模型服务、应用模版两种部署方式辅助您部署 DeepSeek R1 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中。欢迎您立即体验。
275 13
|
1月前
|
弹性计算 人工智能 运维
0代码!2种方式一键部署 DeepSeek 系列模型
DeepSeek 凭借卓越性能和广泛应用场景,获得全球高度关注。DeepSeek-R1-Distill 是基于 DeepSeek-R1 生成的开源小模型,参数规模更小、推理成本更低,且基准测试表现出色。本文以 DeepSeek-R1-Distill-Qwen-7B-GGUF 模型为例,介绍如何通过阿里云 CAP 平台和函数计算 FC 部署 DeepSeek-R1 模型。用户可选择模型服务或应用模版两种方式快速部署,最快 10 分钟完成,最低 0 元起,支持 API 调用及第三方平台集成,具备免运维、弹性伸缩和高可用性,按量付费模式有效降低成本。欢迎点击阅读原文体验部署。
|
17天前
|
机器学习/深度学习
DeepSeek进阶开发与应用2:DeepSeek中的自定义层与复杂模型构建
本文深入探讨了如何在DeepSeek框架中创建自定义神经网络层,以满足复杂应用的需求。通过继承`Layer`基类并实现`__init__`和`call`方法,用户可以轻松定义自定义层,如特定初始化方法的全连接层。文中还展示了如何使用自定义层构建复杂的深度学习模型,并通过示例代码详细说明了其应用。最后,文章强调了自定义层在提升模型灵活性和性能方面的重要性。
|
1月前
|
Web App开发 测试技术 API
使用Ollama和Botnow本地部署DeepSeek R1模型的对比分析
本文详细对比了使用Ollama和Botnow两种方式在本地运行DeepSeek R1等开源大模型的不同。通过Ollama,用户可以在个人电脑(如MacBook Pro)上快速部署和测试模型;而Botnow则提供了企业级的API接入和本地部署方案,支持更复杂的应用场景。具体步骤包括环境准备、模型下载与运行、图形化界面操作等,帮助用户选择最适合自己的方式体验大模型的强大功能。
231 0
|
6月前
|
文字识别 自然语言处理 数据可视化
Qwen2.5 全链路模型体验、下载、推理、微调、部署实战!
在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并提供了宝贵的反馈。在这段时间里,通义千问团队专注于创建更智能、更博学的语言模型。今天,Qwen 家族的最新成员:Qwen2.5系列正式开源
Qwen2.5 全链路模型体验、下载、推理、微调、部署实战!
|
5月前
|
Linux Shell API
ollama 大模型部署 工具 | AIGC
Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。【10月更文挑战第1天】
963 1
|
8月前
|
人工智能 前端开发 API
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
【7月更文挑战第9天】RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
|
7月前
|
监控 数据安全/隐私保护 异构计算
借助PAI-EAS一键部署ChatGLM,并应用LangChain集成外部数据
【8月更文挑战第8天】借助PAI-EAS一键部署ChatGLM,并应用LangChain集成外部数据
165 1