轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE

简介: 本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。

前言

2025 年 1 月 27 日,DeepSeek 在苹果中美两区的 App 免费榜单双双登顶,超越了长期占据榜单的 GPT,这一突破性进展引发了投资者的广泛关注,甚至导致英伟达股价大幅下跌。从那时起,DeepSeek 一举成为网络热点,广受关注,各大媒体纷纷报道。DeepSeek 之前开源的 DeepSeek-R1 蒸馏模型,也吸引了大量用户在本地设备上部署这一开源版本。

本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。

准备好了吗?准备一杯你最喜欢的咖啡或茶,随着本文一探究竟吧。

Go-Let'sGo.jpg

Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

主要特点

  • 本地运行:Ollama 允许用户在本地计算机上运行大型语言模型,而不需要依赖云服务。这对于数据隐私和安全性要求较高的场景非常有用。

  • 简单易用:通过命令行工具,用户可以轻松地下载、安装和运行模型。Ollama 提供了简单的命令来启动模型并与模型进行交互。

  • 支持多种模型:Ollama 支持多种流行的语言模型,包括 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 等。用户可以根据自己的需求选择合适的模型。

  • 跨平台支持:Ollama 支持多种操作系统,包括 Linux、macOSWindows,用户可以在不同的平台上使用相同的工具。

  • 开源:Ollama 是一个开源项目,用户可以自由地查看、修改和分发其代码。

安装

Ollama 下载页面,我们可以根据自己操作系统类型选择不同的下载方式。

在 Windows 下安装

下载 OllamaSetup.exe 文件之后,打开文件,点击 Install 后等待安装完成。

1.png

2.png

安装完成后,打开 cmd 命令行窗口,输入 ollama -v 验证是否安装成功。

3.png

在 Mac 下安装

下载 Ollama-darwin.zip 文件之后,解压并打开执行文件安装即可。

4.png

安装完成之后,打开终端,输入 ollama -v 验证是否安装成功。

5.png

在 Linux 下安装

运行以下命令进行安装:

curl -fsSL https://ollama.com/install.sh | sh
AI 代码解读

Deepseek

DeepSeek 是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术。该公司推出了比较出名的模型有 DeepSeek-V3DeekSeek-R1DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72BLlama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

本地部署

6.png

前面我们已经安装好了 Ollama,接下来可以借助 Ollama 工具来部署 Deepseek 大模型。

首先,访问 Deepsee Model 的 deepseek-r1 模型页面,在这个页面中,我们可以看到 1.5b7b 等不同规模的模型版本,每个版本右侧会明确标注每个版本所需的显存配置。

其次,根据自己电脑的显卡配置选择合适的版本。例如,部署 deepseek-r1:7b 版本:

$ ollama run deepseek-r1:7b
pulling manifest 
pulling 96c415656d37... 100% ▕████████████████▏ 4.7 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling 40fb844194b2... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success
AI 代码解读

部署完成后,我们就可以与 Deepseek 大模型进行对话了:

>>> 你好
<think>

</think>

你好!很高兴见到你,有什么我可以帮忙的吗?无论是学习、工作还是生活中的问题,
都可以告诉我哦!😊
AI 代码解读

ChatBox

通过 Ollama 部署 Deepseek 模型之后,我们就可以在终端与其进行对话了。由于是在终端里面,交互体验相对较为简洁和不够直观,长时间的对话可能会让操作变得不够流畅。为了更方便地与模型进行对话,我们可以使用可视化的聊天项目,例如 Open WebUIChatBox 等。通过这些工具,我们能够获得更加直观和流畅的交互体验。接下来将演示如何安装并通过 ChatBox 使用 Deepseek

安装

  • 首先,进入 Chatboxai,通过 免费下载 按钮下载软件安装包并进行安装。

7.png

  • 然后打开 Chatbox。首次打开我们会看到以下选项,选择 “使用自己的 API Key 或本地模型”,然后在新的标签页里选择 Ollama API

8.png

9.png

  • 接下来,我们能在模型列表里看到通过 Ollama 所部署的大模型,选择 deepseek-r1:7b,然后点击保存。

10.png

  • 保存之后,我们就可以在对话框里与 Deepseek 大模型进行对话了。

11.png

在 VS Code 里集成 Deepseek

接下来,我将演示如何在 VS Code 中通过 Continue 插件集成 DeepseekContinue 是一款领先的开源 AI 代码助手。我们可以将任意模型和上下文连接起来,在 VS CodeJetBrains 中构建定制化的自动补全和聊天功能。

  • 首先,安装 Cotinue 插件。

12.png

  • 其次,点击 Add Chat model 添加模型。

13.png

  • 接下来,Provider 选项选择 Ollama,Model 选项选择 Autodetect,然后点击 Connect,这样就可以自动选择我们刚才所部署的 deepseek-r1:7b 模型了。

14.png

15.png

  • 对话测试与代码生成测试:

16.png

17.png

JetBrains 系列开发工具中集成 DeepSeek 的方式,与在 VS Code 中的集成方法类似。

小结

借助 Ollama 工具,本地部署 DeepSeek 蒸馏模型的过程非常简单。然而,需要注意的是,本地部署的 DeepSeek 大模型在性能上与官网提供的在线版本存在显著差距,尤其是在模型的思考能力和响应速度方面。除非拥有高性能显卡以支持部署更强大的蒸馏模型,并能够进行本地数据训练,否则建议优先使用官方提供的 Web 版或 App 版本,以获得更优质的使用体验。


你好,我是陈明勇,一名热爱技术、乐于分享的开发者,同时也是开源爱好者。

成功的路上并不拥挤,有没有兴趣结个伴?

关注我,加我好友,一起学习一起进步!

目录
打赏
0
24
15
1
240
分享
相关文章
活动速递 | 解锁企业AI-轻松掌握无缝集成DeepSeek、Qwen-Max
活动速递 | 解锁企业AI-轻松掌握无缝集成DeepSeek、Qwen-Max
活动速递 | 解锁企业AI-轻松掌握无缝集成DeepSeek、Qwen-Max
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
1分钟集成DeepSeek满血版!搭建智能运维助手
阿里云 AI 搜索开放平台面向企业及开发者提供丰富的组件化AI搜索服务,本文将重点介绍基于AI搜索开放平台内置的 DeepSeek-R1 系列大模型,如何搭建 Elasticsearch AI Assistant。
752 173
1分钟集成DeepSeek满血版!搭建智能运维助手
PolarDB开源数据库进阶课15 集成DeepSeek等大模型
本文介绍了如何在PolarDB数据库中接入私有化大模型服务,以实现多种应用场景。实验环境依赖于Docker容器中的loop设备模拟共享存储,具体搭建方法可参考相关系列文章。文中详细描述了部署ollama服务、编译并安装http和openai插件的过程,并通过示例展示了如何使用这些插件调用大模型API进行文本分析和情感分类等任务。此外,还探讨了如何设计表结构及触发器函数自动处理客户反馈数据,以及生成满足需求的SQL查询语句。最后对比了不同模型的回答效果,展示了deepseek-r1模型的优势。
166 0
小鱼深度评测 | 通义灵码2.0,不仅可跨语言编码,自动生成单元测试,更炸裂的是集成DeepSeek模型且免费使用,太炸裂了。
小鱼深度评测 | 通义灵码2.0,不仅可跨语言编码,自动生成单元测试,更炸裂的是集成DeepSeek模型且免费使用,太炸裂了。
141232 29
小鱼深度评测 | 通义灵码2.0,不仅可跨语言编码,自动生成单元测试,更炸裂的是集成DeepSeek模型且免费使用,太炸裂了。
如何在 10 分钟内将 DeepSeek API 集成到您的应用程序
在AI时代,DeepSeek API以其先进的模型帮助企业快速集成自然语言处理等功能,无需深厚机器学习背景。通过Apipost工具,开发者可轻松测试、调试API并生成代码,优化工作流。本文介绍从身份验证到错误处理的完整流程,并提供相关资源链接,助您高效实现应用智能化。
DeepSeek R1 集成难题完美解决:DeepSeek4j来帮你解决
DeepSeek R1 是一款强大的 AI 模型,但在 Java 生态中集成存在诸多挑战,如思维链丢失、参数限制和流式处理不完善等问题。DeepSeek4j 的出现解决了这些难题,它专为 Java 开发者设计,支持完整思维链保留、流畅的流式响应和简单优雅的 API。通过与 Spring Boot 的无缝集成,开发者只需几行代码即可快速接入 DeepSeek R1。此外,DeepSeek4j 提供调试页面、性能优化功能(如 GPU 加速和模型缓存),助力开发者高效利用 AI 技术,推动智能化应用落地。
用户说 | 通义灵码2.0,跨语言编码+自动生成单元测试+集成DeepSeek模型且免费使用
通义灵码, 作为国内首个 AI 程序员,从最开始的内测到公测,再到通义灵码正式发布第一时间使用,再到后来使用企业定制版的通义灵码,再再再到现在通义灵码2.0,我可以说“用着”通义灵码成长的为数不多的程序员之一了吧。咱闲言少叙,直奔主题!今天,我会聊一聊通义灵码的新功能和通义灵码2.0与1.0的体验感。

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等