零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型

简介: 本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。

9c5ff0082dd24faf9bc8240969fa84c0_0.png

在AI技术飞速发展的今天,大型语言模型已不再是云端服务的专属。本教程将教你如何通过Ollama和Chatbox两款轻量工具,在个人电脑上免费部署炙手可热的DeepSeek模型,无需高端显卡,普通CPU也能流畅运行!

ollama安装及部署Deepseek模型

首先我们需要在电脑上安装ollama,本文以windows为例。

ollama简介

Ollama 是一款开源的本地大模型部署工具,旨在让用户能够轻松在个人电脑上运行各种开源大型语言模型(如 Llama、Mistral、DeepSeek 等)。它支持跨平台操作(Windows/macOS/Linux),提供一键式安装和模型管理,优化了内存和计算资源的使用,即使是普通配置的设备也能流畅运行。通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。

ollama目前在github上已经拥有123k star

_20250209152319.jpg

ollama github地址:https://github.com/ollama/ollama

ollama安装

ollama安装比较简单,直接在官网下载windows安装包安装就可以了。

_20250209151707.jpg

ollama下载地址:https://ollama.com/download

安装完之后我们可以在dos窗口中使用以下命令查看版本

ollama -v

_20250209152601.jpg

使用ollama下载deepseek模型

根据自己的电脑配置选择合适的deepseek-r1模型进行安装,目前deepseek-r1有以下版本

_20250209152830.jpg

我下载的是14b的模型,下载命令如下(我已经下载过14b了,此处用8b做示范),

ollama run deepseek-r1:8b

如果之前未下载过模型文件,执行的命令的时候会下载

_20250209153143.jpg

下载完成之后我们就可以在窗口中使用deepseek-r1模型提问了

_20250209163200.jpg

ollama api默认只能在本机使用,如果我们想在局域网中使用我们模型的api,则需要在环境变量中添加以下两个配置:


OLLAMA_HOST   0.0.0.0

OLLAMA_ORIGINS   *

添加完成之后需要重启电脑、重启电脑、重启电脑才能生效

chatbox安装及api配置

chatbox 简介

Chatbox 是一个 AI 模型桌面客户端,支持 ChatGPT、Claude、Google Gemini、Ollama 等主流模型,适用于 Windows、Mac、Linux、Web、Android 和 iOS 全平台

该项目目前已经在github上拥有28.9k star

_20250209155230.jpg

github 地址: https://github.com/Bin-Huang/chatbox

chatbox安装

chatbox安装较为简单,下载最新安装包后直接安装就可以了,如果你之前安装过chatbox,卸载之后安装最新版本,不然会有点慢。

chatbox 下载地址:https://chatboxai.app/zh

_20250209155617.jpg

ollama api配置

chatbox安装完成之后就可以配置ollama api了,如果要在局域网中使用的话前面所说的环境变量务必要配置,不然只能使用127.0.0.1了。

在chatbox中点击设置,模型提供方选择OLLAMA API

_20250209160008.jpg

api 域名 填写模型安装机器的ip(本机安装的话也可以使用127.0.0.1):11434,
模型可以选择自己下载过的任意一个

_20250209160535.jpg

这样,我们就可以使用chatbox进行提问了

_20250209163730.jpg

总结

通过本教程,你已成功搭建了一个完全本地化的智能助手!无论是学术研究、代码编写还是日常问答,DeepSeek都能提供可靠支持。赶紧尝试用ollama list探索更多可用模型,开启你的本地AI之旅吧!

目录
相关文章
|
1月前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
4242 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
2月前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
12774 86
|
13天前
|
人工智能 弹性计算 Ubuntu
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
767 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
|
4天前
|
人工智能 运维 API
评测|零门槛,即刻拥有DeepSeek-R1满血版
在大模型浪潮席卷而来的当下,人工智能正以前所未有的速度渗透进各行各业。对于开发者群体而言,这无疑是一场意义深远的变革。当下,缺乏AI相关应用开发经验或许尚可立足,但展望未来,一年之后,若仍在这一领域毫无建树,在职场上恐将举步维艰,面临求职困境。 对于AI领域的新手小白来说,急切需要解决两大关键问题:一是如何以最快捷的方式上手使用AI相关应用,快速踏入AI大门;二是怎样寻觅合适的业务场景,切实开展AI实践操作,积累宝贵经验。 值得庆幸的是,阿里云为广大开发者提供了丰富且优质的机会。在接下来的内容中,将深入剖析阿里云在AI领域的全方位布局,并详细介绍如何借助阿里云平台,实现云上调用满血版DeepS
36 6
评测|零门槛,即刻拥有DeepSeek-R1满血版
|
1月前
|
自然语言处理 Serverless 测试技术
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
DeepSeek模型近期备受关注,其开源版本DeepSeek-V3和DeepSeek-R1在多个基准测试中表现出色,性能比肩OpenAI顶尖模型。为降低本地部署门槛,Modelscope社区推出DeepSeek-R1-Distill-Qwen模型的一键部署服务,支持函数计算FC平台的闲置GPU实例,大幅降低成本。用户可选择不同参数量的小模型进行快速部署和推理,体验DeepSeek的强大性能。
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
|
3天前
|
机器学习/深度学习 存储 人工智能
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
|
17天前
|
机器学习/深度学习 监控 API
本地部署DeepSeek模型技术指南
DeepSeek模型是一种先进的深度学习模型,广泛应用于自然语言处理等领域。本文详细指导如何在本地部署DeepSeek模型,涵盖环境准备(硬件和软件要求、依赖库安装)、模型下载与配置、部署(创建Flask应用、运行API)、优化(GPU加速、模型量化、ONNX Runtime)及监控维护等内容。通过本文,您将能够在本地成功部署并运行DeepSeek模型,确保其高效稳定。
|
17天前
|
机器学习/深度学习 自然语言处理 API
阿里云零门槛、轻松部署您的专属 DeepSeek模型体验测试
DeepSeek R1是基于Transformer架构的先进大规模深度学习模型,2025年1月20日发布并开源,遵循MIT License。它在自然语言处理等任务上表现出色,高效提取特征,缩短训练时间。阿里云推出的满血版方案解决了服务器压力问题,提供100万免费token,云端部署降低成本,用户可快速启动体验。虽然回答速度有待提升,但整体表现优异,备受关注。
91 7
|
15天前
|
人工智能 自然语言处理 算法
0元!使用魔搭免费算力,基于Qwen基座模型,复现DeepSeek-R1
0元!使用魔搭免费算力,基于Qwen基座模型,复现DeepSeek-R1
|
27天前
|
人工智能 运维 Serverless
零门槛体验DeepSeek-R1满血版评测
本文评测了“零门槛、轻松部署您的专属DeepSeek模型”解决方案。文档步骤清晰,逻辑顺畅,特别在调用API和配置客户端方面指引详细,确保部署顺利。体验过程中提供了充足引导与帮助,涵盖多种部署方式如百炼API调用、PAI平台部署等,适合不同需求用户。推荐基于百炼API的满血版,因其快速上手、按量付费、弹性扩展和易于管理的优势。整体方案基本满足实际需求,建议进一步补充性能评估和成本优化等内容。
120 18