【2025】世界顶级AI模型本地部署私有化完整版教程 DeepSeek-R1+Ollama+ChatboxAI合体,瞬间升级你的个人电脑秒变智能神器!

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: 震撼发布!让你的电脑智商飙升,DeepSeek-R1+Ollama+ChatboxAI合体教程,打造私人智能神器!

前言

DeepSeek的新闻和各种热搜现在是铺天盖地~有支持、有攻击、也有质疑的声音!

而最近我发现使用DeepSeek老是出问题,相信很多人也发现了之前给大家讲过的使用DeepSeek提供的API接入的Cline插件助手会一直报错!

这也包括PC端网页版

原因反正我听说被谁谁攻击了等等..这是真是假这里我们不去扯,也不去讨论这个问题,我们要的是解决这个问题,让大家正常能够使用上DeepSeek!

那官网提供的API不能用,那我们就另辟蹊径,把DeepSeek大模型弄到咋们本地来进行使用!

为什么要部署到本地?

那很多人就要问了,部署到本地有什么好处?

这里就要说到几个DeepSeek的使用途径,包括很多大模型的使用途径,都可以分为以下几种:

  1. web网页访问
  2. API接入
  3. 部署到本地

首先你要搞清楚这三种使用方式的区别是什么,才能知道为什么需要本都去部署一个大模型的好处!

网页版DeepSeek

这种方式也是很多人使用大模型的方式,就跟当初的ChatGPT差不多!

网页版的使用方式也是很多人能够接受门槛最低的使用方式!

如图

这种使用方式就是官网直接给我们大众提供的一个窗口,后台已经给我们搭建部署好了大模型!

作为用户的我们只要直接打开网页,最多也是注册一个账号即可开箱使用!

同理这里和对应产品的APP也是一样道理!

之前的我也说过网页版其实适合那些想要快速体验DeepSeek功能、进行简单文本处理或对话的用户, 它无需任何技术集成,只需在浏览器中打开网页即可使用,非常适合初学者或临时需求, 此外,网页版通常提供了直观的用户界面,使得操作更加简便,就跟上面一样!

API接口调用

这种方式则更适合需要将一些大模型功能集成到自己应用中的开发者, 从使用的角度上来要有一定的门槛!

官网给出的API提供了更高的灵活性和可定制性,可以让我们根据自己的需求来调用大模型服务, 比如加入到自己开发的项目应用当中,或者开发编辑器工具中等等..

如图

当然这种方式是需要付费的,你想一下,官网那边提供了计算数据的服务资源以及开销,你客户端这边就一直调用官方传递过来的数据资源,难道不收费吗?

之前我发布的VSCode+Cline+DeepSeek-V3就是一种调用官方API的形式进行使用DeepSeek大模型,官网还会送给我们500万tokens进行使用,使用完之后,就需要付费购买了, 但是这里我特别要说的是DeepSeek相比其他国外的大模型付费要便宜很多,作为普通人的我们完全可以有能力去支付这种付费!

当然有些人就在后台私信我,有没有一种完全免费的使用方式,那我就要推荐以下的使用方法了本地部署大模型

本地部署DeepSeek

通常本地部署大模型的意思是将一个大型人工智能模型比如DeepSeek安装在你自己的本地电脑上!

这样我们就再也不用依赖与外部服务去使用大模型了, 在自己的电脑就可以直接运行和使用大模型,数据也留在本地,更安全、更可控, 那怕是你没有网也完全可以正常在本地使用, 你打开移动端或者web端总需要网络对吧! 没网你这么用?另一方面最近DeepSeek在线使用也不是很稳定,上面我也说过了,如果你部署在本地的情况下,那么完全没有任何必要去担心这个问题!

所以这也是我最推荐大家使用大模型的一种方式,以后的讲解到的大模型会有相应的本都部署教程!

今天我们就先教大家把DeepSeek R1大模型部署到你的本地电脑!

DeepSeek-R1 是一个怎样的模型

What~~~~!! 你们真的一点文档都没有去看吗~ 😲😲😲

求你们看,看看文档吧~~🤢🤢

https://api-docs.deepseek.com/zh-cn/news/news250120

如图

简单的说DeepSeek-R1模型深度求索研发的一个经过强化训练学习后并且完全开源的高性能低成本推理模型!

其优势在于数学、代码和自然语言推理等复杂任务!

DeepSeek-R1与我们之前说的DeepSeek V3的主要区别在于它们的架构、训练方式、参数规模以及应用场景

具体大家可以翻阅相关资料,这里我就不展开说了!

这么厉害的模型,不部署到你自己的本地电脑上用一用真的可惜了!

题外话

但是这里我要特别说明一下如果是本地部署的大模型,那么与在线API、网页版、APP等方式相比,在性能和功能上可能存在差距!

可能很多人会留意到蒸馏模型这个词汇,这里我简单的给大家解释一下!

所谓的蒸馏模型其实用最通俗的话来讲就是把大模型学到的知识压缩传授小模型,让小模型也能拥有大模型部分能力!

如图

比如这里其实意思就是用LlamaQwen模型出了几个更小但同样聪明的模型来适应我们有各种需求的普通人进行使用!

毕竟大模型需要很强大的硬件支持算力 才能部署、那么我们个人在自己的本地电脑上部署这种蒸馏模型,也是理所当然的~ 难道我们普通人还有能力去部署大模型吗!

所以网上很多人乱扯什么满血R1大模型本地部署都是瞎扯淡的,对于普通人而言根本不可能部署满血大模型!

现在懂了吧! 但是我个人觉得蒸馏模型对于普通人而言,这完全足够了,做人不要太贪心!

Ollama本地部署大模型辅助工具

这里我以Windows系统为例来给大家讲解部署大模型的前提条件!

首先我们要把大模型部署到自己的电脑上需要借助一些平台框架来辅助简化操作!

简单的说通过这些平台框架我们就可以更方便地管理大模型的安装、配置、更新升级等工作,减少手动操作的复杂性和错误率, 最终让我们不用从头搭建复杂的环境,就能高效地在本地部署和使用大模型!

而这种平台框架工具其实有很多,这些都可以看作是辅助本地部署和运行大模型的工具或框架,这里我个人是推荐使用Ollama!

首先Ollama的优势在于它专为大语言模型设计,提供极简的命令行操作,也无需复杂配置,最适合快速在本地运行和交互大模型,特别适合初学者部署大模型,简单干脆!

你可以这样理解Ollama,它就像一个大模型的载体!

Ollama的下载与安装

Ollama官网

https://ollama.com

如图

我们直接在这里就开始点击Download按钮开始下载Ollama!

然后安装到我们的电脑上,这里以Windows系统版本为例!

如图

下载好之后直接先双击安装到电脑上!

如图

Ollama会强制安装到你的C盘下, 所以请先确保你C盘有足够空间吧!

如图

等待安装完成之后,我们可以打开cmd命令行然后输入以下命令

ollama -v

查看一下是否安装成功!

如图

当你看到上面这个提示之后,那么恭喜你安装成功了!

这个时候Ollama的控制图标会出现在任务栏右下角通知区域图标列表当中

如图

DeepSeek-R1模型的下载

然后我们就可以借助Ollama的命令来下载DeepSeek大模型

Ollama支持通过其命令来下载管理大模型,其中就包含了DeepSeek大模型

我们在Ollama官网上点击Models菜单

如图

直接点击deepseek-r1

如图

然后选择DeepSeek的版本

不同版本的容量大小不一样,主要在于模型参数数量、训练数据集规模、支持的特性和优化程度等方面有所不同,所以这里根据你自己的需求进行下载, 条件允许的朋友直接开大,671b 404GB!

我这里选择的是7b这个版本!

如图

然后右侧会生成好对应的命令,我们复制一下

如图

然后打开cmd命令行去执行以下,就可以开始下载DeepSeek大模型

如图

这里我们会进入漫长的等待中....

开始访问DeepSeek-R1模型

安装完成之后,我们就可以直接开始使用DeepSeek-R1来进行简单的对话了!

如图

严格意义上说我们本地部署DeepSeek大模型已经成功了!

DeepSeek-R1集成ChatboxAI

有没有想过,我们每次都要打开cmd命令行然后输入以下命令:

ollama run deepseek-r1:7b

来进行对话,但是太麻烦了,数据的复制粘贴也很麻烦,尤其是对新手不太友好!

我们至少还是要弄一个类似于ChatGPTweb对话网页进行交互吧!

这里推荐一个工具ChatboxAI, 它是一款结合人工智能技术和便捷操作界面的智能对话工具客户端应用!

官网如下

https://chatboxai.app/zh

我们可以使用它来和DeepSeek-R1模型进行智能对话和交流

这里我是下载的Windows客户端进行使用,当然你也可以使用网页版,大家随意!

安装好之后,你会看到如下界面

现在我们还需要配置一下这个ChatboxAIOllama来调用起DeepSeek模型来与我们进行对话!

点击设置, 然后在模型提供方选择Ollama api

在下方的模型选项中,选择我们下载的模型名称!

deepseek-r1:7b

如图

然后点击保存之后,就可以和DeepSeek-R1模型进行对话了!

如图

最后

DeepSeek对于我们普通老百姓来说就是用最低的成本用上最好的AI人工智能大模型,也对国内AI发展有着巨大的帮助和贡献,我个人希望大家少一点猜疑和争论, 缺点是任何产品都是会有的, 一味地抱怨,毫无价值意义~也不能促进一点点的发展,我们需要的是多一点解决问题的方案,听得懂的人自然能听懂!

相关文章
|
10天前
|
人工智能 编解码 自然语言处理
重磅更新!ModelScope FlowBench 支持视频生成 + 图像编辑,AI创作全面升级!
很高兴地向大家宣布,ModelScope FlowBench 客户端迎来重大功能升级! 本次更新不仅正式支持了视频节点功能,还新增了图像编辑与IC-Light智能打光等实用功能,同时对多个图像处理节点进行了深度优化和扩展。现在,您只需在 FlowBench 中轻松串联节点,即可使用 Wan2.1/Wan2.2、Qwen-Image-Edit、FLUX Kontext、IC-Light等强大模型,轻松实现创意内容的生成与编辑。 无论你是内容创作者、视觉设计师,还是AI技术爱好者,这次更新都将为你打开全新的创作边界。
232 14
|
12天前
|
人工智能 Java 机器人
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
Spring AI Alibaba集成Ollama,基于Java构建本地大模型应用,支持流式对话、knife4j接口可视化,实现高隐私、免API密钥的离线AI服务。
273 1
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
|
12天前
|
人工智能 机器人 新能源
深化新工科建设 共探智能新未来 | 阿里云支持南京大学苏州校区“AI DAY”盛大启幕丨云工开物
9月12日,南京大学苏州校区举办“AI新视界:深化新工科建设进行式”活动,采用教师与学生双专场模式,通过主题分享、实践演练、产业课题发布等形式,搭建产教融合AI交流平台,助力未来产业科技人才培养。
|
12天前
|
传感器 人工智能 边缘计算
智能就在身边:AI如何优化边缘计算
智能就在身边:AI如何优化边缘计算
81 2
|
12天前
|
机器学习/深度学习 人工智能 运维
运维告警别乱飞了!AI智能报警案例解析
运维告警别乱飞了!AI智能报警案例解析
85 0
人工智能 安全 Ubuntu
164 0
|
21天前
|
人工智能 自然语言处理 测试技术
AI测试平台的用例管理实践:写得清晰,管得高效,执行更智能
在测试过程中,用例分散、步骤模糊、回归测试效率低等问题常困扰团队。霍格沃兹测试开发学社推出的AI测试平台,打通“用例编写—集中管理—智能执行”全流程,提升测试效率与覆盖率。平台支持标准化用例编写、统一管理操作及智能执行,助力测试团队高效协作,释放更多精力优化测试策略。目前平台已开放内测,欢迎试用体验!
|
人工智能 弹性计算 安全
创新场景丨元空智能:AI 工具创业,如何抓住新时代的出海机遇
大模型创业的本质是兑现新技术价值,而乘云出海,不仅是技术的输出,更是中国创新走向世界的一次实践。
|
21天前
|
人工智能 安全 Devops
AI 驱动的 DevOps:通过智能命令执行实现基础设施自动化
本文探讨了如何利用能够根据自然语言提示执行命令、管理基础设施和自动部署的 AI 技术,来革新 DevOps 流程。通过模型上下文协议(MCP),AI 助手不仅能回答问题,还能直接操作终端、编辑文件并管理开发环境,从而简化复杂的 DevOps 任务,提高效率并降低错误率。
155 3
|
23天前
|
存储 人工智能 监控
LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作
如今的量化交易已远超传统技术指标,迈向多智能体协作的新时代。本文介绍了一个基于 **LangGraph** 构建的多智能体交易系统,模拟真实投资机构的运作流程:数据分析师收集市场情报,研究员展开多空辩论,交易员制定策略,风险团队多角度评估,最终由投资组合经理做出决策。系统具备记忆学习能力,通过每次交易积累经验,持续优化决策质量。
168 8
LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作