轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE

简介: 本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。

前言

2025 年 1 月 27 日,DeepSeek 在苹果中美两区的 App 免费榜单双双登顶,超越了长期占据榜单的 GPT,这一突破性进展引发了投资者的广泛关注,甚至导致英伟达股价大幅下跌。从那时起,DeepSeek 一举成为网络热点,广受关注,各大媒体纷纷报道。DeepSeek 之前开源的 DeepSeek-R1 蒸馏模型,也吸引了大量用户在本地设备上部署这一开源版本。

本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。

准备好了吗?准备一杯你最喜欢的咖啡或茶,随着本文一探究竟吧。

Go-Let'sGo.jpg

Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

主要特点

  • 本地运行:Ollama 允许用户在本地计算机上运行大型语言模型,而不需要依赖云服务。这对于数据隐私和安全性要求较高的场景非常有用。

  • 简单易用:通过命令行工具,用户可以轻松地下载、安装和运行模型。Ollama 提供了简单的命令来启动模型并与模型进行交互。

  • 支持多种模型:Ollama 支持多种流行的语言模型,包括 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 等。用户可以根据自己的需求选择合适的模型。

  • 跨平台支持:Ollama 支持多种操作系统,包括 Linux、macOSWindows,用户可以在不同的平台上使用相同的工具。

  • 开源:Ollama 是一个开源项目,用户可以自由地查看、修改和分发其代码。

安装

Ollama 下载页面,我们可以根据自己操作系统类型选择不同的下载方式。

在 Windows 下安装

下载 OllamaSetup.exe 文件之后,打开文件,点击 Install 后等待安装完成。

1.png

2.png

安装完成后,打开 cmd 命令行窗口,输入 ollama -v 验证是否安装成功。

3.png

在 Mac 下安装

下载 Ollama-darwin.zip 文件之后,解压并打开执行文件安装即可。

4.png

安装完成之后,打开终端,输入 ollama -v 验证是否安装成功。

5.png

在 Linux 下安装

运行以下命令进行安装:

curl -fsSL https://ollama.com/install.sh | sh

Deepseek

DeepSeek 是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术。该公司推出了比较出名的模型有 DeepSeek-V3DeekSeek-R1DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72BLlama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

本地部署

6.png

前面我们已经安装好了 Ollama,接下来可以借助 Ollama 工具来部署 Deepseek 大模型。

首先,访问 Deepsee Model 的 deepseek-r1 模型页面,在这个页面中,我们可以看到 1.5b7b 等不同规模的模型版本,每个版本右侧会明确标注每个版本所需的显存配置。

其次,根据自己电脑的显卡配置选择合适的版本。例如,部署 deepseek-r1:7b 版本:

$ ollama run deepseek-r1:7b
pulling manifest 
pulling 96c415656d37... 100% ▕████████████████▏ 4.7 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling 40fb844194b2... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success

部署完成后,我们就可以与 Deepseek 大模型进行对话了:

>>> 你好
<think>

</think>

你好!很高兴见到你,有什么我可以帮忙的吗?无论是学习、工作还是生活中的问题,
都可以告诉我哦!😊

ChatBox

通过 Ollama 部署 Deepseek 模型之后,我们就可以在终端与其进行对话了。由于是在终端里面,交互体验相对较为简洁和不够直观,长时间的对话可能会让操作变得不够流畅。为了更方便地与模型进行对话,我们可以使用可视化的聊天项目,例如 Open WebUIChatBox 等。通过这些工具,我们能够获得更加直观和流畅的交互体验。接下来将演示如何安装并通过 ChatBox 使用 Deepseek

安装

  • 首先,进入 Chatboxai,通过 免费下载 按钮下载软件安装包并进行安装。

7.png

  • 然后打开 Chatbox。首次打开我们会看到以下选项,选择 “使用自己的 API Key 或本地模型”,然后在新的标签页里选择 Ollama API

8.png

9.png

  • 接下来,我们能在模型列表里看到通过 Ollama 所部署的大模型,选择 deepseek-r1:7b,然后点击保存。

10.png

  • 保存之后,我们就可以在对话框里与 Deepseek 大模型进行对话了。

11.png

在 VS Code 里集成 Deepseek

接下来,我将演示如何在 VS Code 中通过 Continue 插件集成 DeepseekContinue 是一款领先的开源 AI 代码助手。我们可以将任意模型和上下文连接起来,在 VS CodeJetBrains 中构建定制化的自动补全和聊天功能。

  • 首先,安装 Cotinue 插件。

12.png

  • 其次,点击 Add Chat model 添加模型。

13.png

  • 接下来,Provider 选项选择 Ollama,Model 选项选择 Autodetect,然后点击 Connect,这样就可以自动选择我们刚才所部署的 deepseek-r1:7b 模型了。

14.png

15.png

  • 对话测试与代码生成测试:

16.png

17.png

JetBrains 系列开发工具中集成 DeepSeek 的方式,与在 VS Code 中的集成方法类似。

小结

借助 Ollama 工具,本地部署 DeepSeek 蒸馏模型的过程非常简单。然而,需要注意的是,本地部署的 DeepSeek 大模型在性能上与官网提供的在线版本存在显著差距,尤其是在模型的思考能力和响应速度方面。除非拥有高性能显卡以支持部署更强大的蒸馏模型,并能够进行本地数据训练,否则建议优先使用官方提供的 Web 版或 App 版本,以获得更优质的使用体验。


你好,我是陈明勇,一名热爱技术、乐于分享的开发者,同时也是开源爱好者。

成功的路上并不拥挤,有没有兴趣结个伴?

关注我,加我好友,一起学习一起进步!

目录
相关文章
|
6月前
|
人工智能
活动速递 | 解锁企业AI-轻松掌握无缝集成DeepSeek、Qwen-Max
活动速递 | 解锁企业AI-轻松掌握无缝集成DeepSeek、Qwen-Max
活动速递 | 解锁企业AI-轻松掌握无缝集成DeepSeek、Qwen-Max
|
7月前
|
人工智能 Kubernetes jenkins
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
|
7月前
|
人工智能 运维 数据可视化
1分钟集成DeepSeek满血版!搭建智能运维助手
阿里云 AI 搜索开放平台面向企业及开发者提供丰富的组件化AI搜索服务,本文将重点介绍基于AI搜索开放平台内置的 DeepSeek-R1 系列大模型,如何搭建 Elasticsearch AI Assistant。
895 173
1分钟集成DeepSeek满血版!搭建智能运维助手
|
5月前
|
人工智能 自然语言处理 DataWorks
DataWorks Copilot 集成Qwen3-235B-A22B混合推理模型,数据开发与分析效率再升级!
阿里云DataWorks平台正式接入Qwen3模型,支持最大235B参数量。用户可通过DataWorks Copilot智能助手调用该模型,以自然语言交互实现代码生成、优化、解释及纠错等功能,大幅提升数据开发与分析效率。Qwen3作为最新一代大语言模型,具备混合专家(MoE)和稠密(Dense)架构,适应多种应用场景,并支持MCP协议优化复杂任务处理。目前,用户可通过DataWorks Data Studio新版本体验此功能。
442 23
DataWorks Copilot 集成Qwen3-235B-A22B混合推理模型,数据开发与分析效率再升级!
|
7月前
|
存储 人工智能 测试技术
小鱼深度评测 | 通义灵码2.0,不仅可跨语言编码,自动生成单元测试,更炸裂的是集成DeepSeek模型且免费使用,太炸裂了。
小鱼深度评测 | 通义灵码2.0,不仅可跨语言编码,自动生成单元测试,更炸裂的是集成DeepSeek模型且免费使用,太炸裂了。
141429 29
小鱼深度评测 | 通义灵码2.0,不仅可跨语言编码,自动生成单元测试,更炸裂的是集成DeepSeek模型且免费使用,太炸裂了。
|
3月前
|
传感器 人工智能 搜索推荐
M3T联邦基础模型用于具身智能:边缘集成的潜力与挑战
随着具身智能系统日益变得多模态、个性化和交互式,它们必须能够从多样化的感官输入中有效学习,持续适应用户偏好,并在资源和隐私约束下安全运行。这些挑战凸显了对能够在模型泛化与个性化之间取得平衡的同时实现快速、情境感知自适应能力的机器学习模型的迫切需求。在此背景下,两种方法脱颖而出,各自提供了部分所需能力:FMs为跨任务和跨模态的泛化提供了一条路径,FL)则为分布式、隐私保护的模型更新和用户级模型个性化提供了基础设施。然而,单独使用时,这两种方法都无法满足现实世界中具身环境复杂且多样化的能力要求。
103 0
|
6月前
|
人工智能 自然语言处理 API
如何在 10 分钟内将 DeepSeek API 集成到您的应用程序
在AI时代,DeepSeek API以其先进的模型帮助企业快速集成自然语言处理等功能,无需深厚机器学习背景。通过Apipost工具,开发者可轻松测试、调试API并生成代码,优化工作流。本文介绍从身份验证到错误处理的完整流程,并提供相关资源链接,助您高效实现应用智能化。
|
5月前
|
人工智能 Java API
DeepSeek R1 集成难题完美解决:DeepSeek4j来帮你解决
DeepSeek R1 是一款强大的 AI 模型,但在 Java 生态中集成存在诸多挑战,如思维链丢失、参数限制和流式处理不完善等问题。DeepSeek4j 的出现解决了这些难题,它专为 Java 开发者设计,支持完整思维链保留、流畅的流式响应和简单优雅的 API。通过与 Spring Boot 的无缝集成,开发者只需几行代码即可快速接入 DeepSeek R1。此外,DeepSeek4j 提供调试页面、性能优化功能(如 GPU 加速和模型缓存),助力开发者高效利用 AI 技术,推动智能化应用落地。
|
6月前
|
人工智能 自然语言处理 IDE
如何在 IDE 里使用 DeepSeek?
如何在 IDE 里使用 DeepSeek?
|
7月前
|
人工智能 IDE 测试技术
用户说 | 通义灵码2.0,跨语言编码+自动生成单元测试+集成DeepSeek模型且免费使用
通义灵码, 作为国内首个 AI 程序员,从最开始的内测到公测,再到通义灵码正式发布第一时间使用,再到后来使用企业定制版的通义灵码,再再再到现在通义灵码2.0,我可以说“用着”通义灵码成长的为数不多的程序员之一了吧。咱闲言少叙,直奔主题!今天,我会聊一聊通义灵码的新功能和通义灵码2.0与1.0的体验感。

热门文章

最新文章