ollama部署本地DeepSeek大模型

简介: 本地部署大模型具有省钱省心、数据安全、使用自由、无需联网、量身定制及响应高效等优势。DeepSeek 提供满血版与多种蒸馏版模型,适配不同硬件条件。通过 Ollama 可便捷部署,并结合客户端工具如 AnythingLLM 提升交互体验,打造个性化本地 AI 助手。

为什么要本地部署

  1. 省钱省心:本地部署模型,前期买个好设备,后面用起来基本不用花钱。不用像用云端模型那样,老是担心费用问题,想怎么用就怎么用,经济上轻松不少。
  2. 数据更安全:现在数据安全很重要,尤其是公司的一些敏感数据。如果用云端模型,数据要上传到服务器,万一泄露就麻烦了。本地部署就不用担心这个,数据都在自己手里,处理敏感数据也放心,企业的隐私保护更有保障。
  3. 说话更自由:云端模型有很多内容限制,有些敏感话题不能聊,回答也受约束。本地部署的模型就自由多了,能更纯粹地根据数据和算法来回答问题,不过大家还是要自觉遵守道德和法律。
  4. 随时随地用:本地部署的模型不用联网,不管是在办公室、家里还是外出,只要有设备,随时都能用。不用担心网络不好或者断网,24 小时都能服务,特别方便。
  5. 量身定制:有些云端知识库服务,要么担心数据泄露,要么太贵,还不能完全满足自己的需求。本地部署后,可以用自己的数据来训练模型,打造专属的知识库,让它更懂特定领域,比如编程、法律这些,回答问题更精准,效果提升很明显。
  6. 用着更顺手:云端模型用的人多了,可能会卡顿、延迟,体验不好。本地部署的模型能充分利用自己的硬件,像电脑的 CPU、GPU,处理速度快,没有网络延迟,用起来特别顺畅,效率也高不少。

DeepSeek 的满血版和蒸馏版本

满血版:DeepSeek 大模型满血版是指在训练和部署过程中,没有对模型的参数规模、计算资源等进行限制,能够充分发挥其全部性能和潜力的版本。它代表了该大模型在当前技术条件和资源支持下所能达到的最高水平,但是往往来说我们个人电脑的硬件配置是不支持部署满血版的。

蒸馏版:知识蒸馏是一种模型压缩方法。简单来说,就是用一个大型的、复杂的预训练模型(满血版)来指导一个小型的、结构更简单的模型(蒸馏版)的训练过程,在保持一定的性能的同时降低对设备硬件配置的要求。蒸馏版本的参数量从 1.5B70B 不等,比如以下几种变体:

  • DeepSeek-R1-Distill-Qwen-1.5B
  • DeepSeek-R1-Distill-Qwen-7B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Qwen-32B
  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Llama-70B

DeepSeek - R1 是主模型的名称。“Distill” 在中文里是 “蒸馏” 的意思,表明这是经过蒸馏处理的模型版本。其后跟随的名称则表明了该蒸馏模型的来源。例如,“DeepSeek - R1 - Distill - Qwen - 32B” 表示它是基于阿里巴巴的开源大模型千问(Qwen)蒸馏得到的版本。

最后的参数量(如 671B、32B、1.5B)代表模型中可训练参数的数量,其中 “B” 是 “Billion”(十亿)的缩写。也就是说,671B、32B、1.5B 分别表示模型的参数量为 6710 亿、320 亿和 15 亿。一般来说,参数量越大,模型的表达能力和复杂度越高,但相应地,对硬件资源的需求也会更高。

下面有张 DeepSeek 官网的测试报告,可以发现 32B 蒸馏版和满血版其实相差也不是很大。

通过 Ollama 本地部署 DeepSeek

在 DeepSeek 官方 Github 仓库也给出了部署教程(https://github.com/deepseek-ai/DeepSeek-R1?tab=readme-ov-file#6-how-to-run-locally)

Ollama部署

DeepSeek 官方的部署教程还是比较麻烦,目前市面上主流的还是通过 Ollama(https://ollama.com/)去进行部署

Ollama 是一个允许用户在本地运行大型语言模型的平台。

主要功能和模型:它支持运行多个大型语言模型,如 Llama 3.3、DeepSeek - R1、Phi - 4、Mistral 和 Gemma 2。这为用户提供了多种选择,可根据他们的具体需求和偏好进行挑选。

可用性和平台:Ollama 适用于 macOS、Linux 、Windows 和 Docker 容器,安装十分的便捷。

部署步骤

  1. 选择自己对应的平台下载 Ollama,我这边是 Windows,就直接下载了exe文件

  2. 安装 Ollama,这里有一点还挺重要的,Ollama 默认是安装在C盘的,后续的模型也是安装到C盘。如果要安装到其他目录,需要使用cmd安装,指定安装目录。

    执行命令之后就会安装到指定的目录

  3. 安装成功后 Ollama 会监听我们的 11434 端口。

安装大模型

在 Ollama(https://ollama.com/search)的官网可以看到它支持安装多种模型,并且支持 Embedding(嵌入大模型)后续需要用到 RAG 技术的时候我们可以部署自己的 Embedding 来将我们的知识库转为向量数据

选择 DeepSeek-R1 模型(https://ollama.com/library/deepseek-r1)

Ollama 提供了多种蒸馏的模型让我们部署,我们可以根据自己的硬件配置选择合适的,如果不知道怎么选择可以把自己电脑的硬件配置(CPU、显卡,显存、内存)告诉 DeepSeek 让它帮你挑选一个合适的(在任务管理器可以看到大部分的硬件配置,如果有一些没有可以搜索一下如何查看)

我这边根据我的配置选择的是 deepseek-r1:7b,在控制台执行对应的命令安装即可。

下载完成后可以直接在命令行运行:

目前我们就在本地安装好了一个自己的本地大模型,但是这种方式需要通过控制台终端交互,体验不是很好,我们可以安装一些AI工具,给大家推荐几款都可以试一试:

我自己是安装了 AnythingLLM,另外几个大家也可以去试一试,有好的客户端也可以分享一下。

安装客户端工具

  1. 安装好之后选择 Ollama 模型,AnythingLLM 会自己试别我们本地的大模型

  2. 然后进来就是一些引导话术,随便填一下就行

  3. 然后他让我们输入一个 Workspace(工作区)的名字,设置完成就可以使用了

  4. 我们问一个问题,正常配置了自己本地的大模型可以听到自己电脑风扇轰轰的转起来了🤣🤣

  5. 如果没有选择对也可以到设置里面去修改一下。

Ollama命令大全

命令 描述 示例
ollama run \ 启动模型并与之交互 ollama run llama2
ollama list 列出本地已下载的模型 ollama list
ollama pull \ 从模型库中下载一个模型 ollama pull llama2
ollama rm \ 删除本地的一个模型 ollama rm llama2
ollama show \ 查看某个模型的详细信息 ollama show llama2
ollama serve 启动 Ollama 服务 ollama serve
ollama stop 停止 Ollama 服务 ollama stop
ollama logs 查看 Ollama 的日志信息 ollama logs
ollama create \ -f \ 使用自定义的模型配置文件创建模型 ollama create my-model -f ./my-model-config.yaml
ollama export \ \ 导出模型为文件 ollama export llama2 ./llama2-model.tar
ollama import \ 从文件导入模型 ollama import ./llama2-model.tar
ollama version 查看 Ollama 的版本信息 ollama version
ollama --help 查看所有可用的命令及其说明 ollama --help

最后

本文主要介绍了基础的安装与使用流程,但其探索空间远不止于此。对于有更高追求的用户,大家完全可以积极探索更多拓展性内容。例如,借助 RAG 技术打造专属知识库并与 LLM 相融合,或者对模型进行细致的微调,这些方法都能在很大程度上优化大模型存在的幻觉问题。而那些具备更深厚技术实力的用户,还可以尝试结合其他各类工具,构建出功能强大的个性化 Agent,进一步拓展应用的边界与深度。

目录
相关文章
|
3月前
|
人工智能 运维 Serverless
0 代码,一键部署 Qwen3
依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。
|
13天前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
113 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
7天前
|
人工智能 缓存 自然语言处理
阿里云百炼大模型收费价格:调用、调优和部署费用清单
阿里云百炼开通免费,调用、调优、部署按需计费。每个模型享100万Tokens免费额度,超量后计费。含推理(按Token阶梯计价)、训练(按数据量)和部署(按时长或调用量)三项费用,详情见官方文档。
215 3
|
23天前
|
人工智能 云栖大会
2025云栖大会大模型应用开发与部署|门票申领
2025云栖大会大模型应用开发与部署门票申领
|
25天前
|
算法 安全 开发者
大模型部署指南:从个人玩转到企业级应用,这4款工具必看!
本文介绍了五款主流大语言模型部署工具,帮助用户根据需求选择合适的方案。包括适合个人使用的 Ollama 和 LM Studio、优化低配设备运行的 llama.cpp、企业级部署的 vLLM,以及 Hugging Face 推出的 TGI 框架,覆盖从本地体验到高性能服务的多种场景。
|
2月前
|
人工智能 JavaScript 前端开发
​​大模型开发从入门到部署
本内容系统讲解大语言模型技术,涵盖BERT、GPT等主流架构,深入Transformer原理与自注意力机制,结合PyTorch实战,详解张量操作、自动求导与模型训练,并介绍RAG、Agent等典型应用场景,助你掌握AI核心技术。
135 0
|
3月前
|
人工智能 缓存 数据可视化
手把手玩转本地大模型:Ollama+DeepSeek+Dify 零门槛全流程指南
本文提供从零搭建本地AI工作站的完整指南,详解本地化部署大模型的核心优势(数据隐私/离线可用/成本可控),涵盖Ollama安装、DeepSeek-Coder模型部署、Dify可视化操作及API调用实战,助你打造安全高效的私有AI开发环境。
|
29天前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
333 109
|
4天前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
50 1
|
2月前
|
存储 人工智能 自然语言处理
告别文字乱码!全新文生图模型Qwen-Image来咯
通义千问团队开源了Qwen-Image,一个20B参数的MMDiT模型,具备卓越的文本渲染和图像编辑能力。支持复杂中英文文本生成与自动布局,适用于多场景图像生成与编辑任务,已在魔搭社区与Hugging Face开源。
375 2

热门文章

最新文章