【Deepseek本地部署】新手教程,2025最新版 仅供参考!

简介: 由于 DeepSeek 开源版对硬件配置要求较高,普通用户的计算机往往难以满足,因此本地部署通常只能选择最低版本的模型。该版本算力大致相当于早期版本的 GPT-3.0,与当前最先进的模型相比存在较大差距。在这种情况下,本地部署 DeepSeek 的主要意义可能在于满足用户的好奇心和体验需求,其实用性相对有限。

由于 DeepSeek 开源版对硬件配置要求较高,普通用户的计算机往往难以满足,因此本地部署通常只能选择最低版本的模型。该版本算力大致相当于早期版本的 GPT-3.0,与当前最先进的模型相比存在较大差距。在这种情况下,本地部署 DeepSeek 的主要意义可能在于满足用户的好奇心和体验需求,其实用性相对有限。

对于日常需要AI创作的朋友,推荐使用: bardai.top

bardai.png

内置强大的AI模型,Gemini 2.0 Pro模型,(目前全球排名第一)能满足大家的一切需求!

Deepseek本地部署:

1.访问 ollama.com/download 下载windows安装包

image.png

2.然后双击安装包,在默认目录安装即可。

3.安装后可能啥没看到,我们需要打开电脑的-命令提示符-来查看是否安装成功。

在电脑搜索栏(或者按键盘的WIN+R),输入:cmd,打开命令控制符。

在命令控制符中,输入:ollama,如果弹出的跟我图片一样,就是安装成功。

4.安装成功之后,我们回到ollama官网,点击网页上这里MODELS,下载语言模型。

这里要看选择的版本

image.png

看上图,左边选择版本,右边选择复制

版本按自家电脑配置,不要乱来,看下图

image.png

image.png

5.我们在电脑搜索栏(或者按键盘的WIN+R)输入cmd运行,将刚才复制的内容直接在上面粘贴后回车

image.png

下载完成。

6.查询拥有的模型,有时候我们调用的时候会出错,需要查看有没有模型,我们还是在电脑搜索栏(或者按键盘的WIN+R)输入cmd运行,打开命令控制符之后,输入:ollama list,回车。

image.png

图片上显示的就是我拥有两个模型,1个14b,1个1.5b。

这样就完成了本地部署。

然后可以直接在这里用,就是没有界面啥的。

这里主要是介绍如何对接到一键成书里,大家喜欢也可以对接到别的软件去,但一键成书是进行批量处理跟网文针对开发。

以下以一键成书版本F为例(一键成书系列软件及数据快读BC操作相同)

6.打开软件,点击左下角的ai设置keys,会弹出配置界面

image.png

点击箭头那里,左键鼠标。
image.png

点击ollama本地大模型,就切换到了ollama。

这里需要注意一下,切换到ollama之后,我们需要在红框位置的1后面输入14b这样才能调用出ai。
image.png

设置好之后,需要我们测试一下,点击测试按键就可以看到是否接入成功了,本地大模型处理起来会慢一些。

当他出现图片这样的反馈之后,就说明我们已经设置好了

相关文章
|
12月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
12月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
5573 13
|
11月前
|
弹性计算 监控 并行计算
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
|
12月前
|
人工智能 数据可视化 API
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。 在这样的背景下,本地部署DeepSeek模型的需求也日益增加。本地部署不仅可以避免网络延迟和数据隐私问题,还能根据用户需求进行定制化优化。结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio AI等工具,用户可以轻松实现模型的本地化部署,并通过可视化面板
1753 8
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)
|
4月前
|
缓存 监控 安全
80_离线环境搭建:无互联网LLM推理
在当今大语言模型(LLM)蓬勃发展的时代,许多组织和个人面临着一个共同的挑战:如何在无互联网连接的环境中高效部署和使用LLM?这一需求源于多方面的考量,包括数据安全、隐私保护、网络限制、极端环境作业等。2025年,随着企业对数据主权意识的增强和边缘计算的普及,离线LLM部署已成为AI应用落地的关键场景之一。
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
6677 8
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
14948 86
|
12月前
|
人工智能 自然语言处理 Linux
5分钟Deepseek R1本地化部署
DeepSeek R1 是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。本文介绍如何通过开源框架Ollama在本地快速部署DeepSeek R1。Ollama简化了大型语言模型的部署过程,支持多种操作系统和模型格式,提供便捷的安装、启动及API接口,使得研究人员和开发者能轻松运行和定制模型。通过简单的命令行操作和HTTP API,用户可以在本地环境中高效利用DeepSeek R1的强大功能。
1036 5
|
12月前
|
人工智能 自然语言处理 Java
Spring 集成 DeepSeek 的 3大方法(史上最全)
DeepSeek 的 API 接口和 OpenAI 是兼容的。我们可以自定义 http client,按照 OpenAI 的rest 接口格式,去访问 DeepSeek。自定义 Client 集成DeepSeek ,可以通过以下步骤实现。步骤 1:准备工作访问 DeepSeek 的开发者平台,注册并获取 API 密钥。DeepSeek 提供了与 OpenAI 兼容的 API 端点(例如),确保你已获取正确的 API 地址。
Spring 集成 DeepSeek 的 3大方法(史上最全)
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
3791 11
阿里云PAI部署DeepSeek及调用