【Deepseek本地部署】新手教程,2025最新版 仅供参考!

简介: 由于 DeepSeek 开源版对硬件配置要求较高,普通用户的计算机往往难以满足,因此本地部署通常只能选择最低版本的模型。该版本算力大致相当于早期版本的 GPT-3.0,与当前最先进的模型相比存在较大差距。在这种情况下,本地部署 DeepSeek 的主要意义可能在于满足用户的好奇心和体验需求,其实用性相对有限。

由于 DeepSeek 开源版对硬件配置要求较高,普通用户的计算机往往难以满足,因此本地部署通常只能选择最低版本的模型。该版本算力大致相当于早期版本的 GPT-3.0,与当前最先进的模型相比存在较大差距。在这种情况下,本地部署 DeepSeek 的主要意义可能在于满足用户的好奇心和体验需求,其实用性相对有限。

对于日常需要AI创作的朋友,推荐使用: bardai.top

bardai.png

内置强大的AI模型,Gemini 2.0 Pro模型,(目前全球排名第一)能满足大家的一切需求!

Deepseek本地部署:

1.访问 ollama.com/download 下载windows安装包

image.png

2.然后双击安装包,在默认目录安装即可。

3.安装后可能啥没看到,我们需要打开电脑的-命令提示符-来查看是否安装成功。

在电脑搜索栏(或者按键盘的WIN+R),输入:cmd,打开命令控制符。

在命令控制符中,输入:ollama,如果弹出的跟我图片一样,就是安装成功。

4.安装成功之后,我们回到ollama官网,点击网页上这里MODELS,下载语言模型。

这里要看选择的版本

image.png

看上图,左边选择版本,右边选择复制

版本按自家电脑配置,不要乱来,看下图

image.png

image.png

5.我们在电脑搜索栏(或者按键盘的WIN+R)输入cmd运行,将刚才复制的内容直接在上面粘贴后回车

image.png

下载完成。

6.查询拥有的模型,有时候我们调用的时候会出错,需要查看有没有模型,我们还是在电脑搜索栏(或者按键盘的WIN+R)输入cmd运行,打开命令控制符之后,输入:ollama list,回车。

image.png

图片上显示的就是我拥有两个模型,1个14b,1个1.5b。

这样就完成了本地部署。

然后可以直接在这里用,就是没有界面啥的。

这里主要是介绍如何对接到一键成书里,大家喜欢也可以对接到别的软件去,但一键成书是进行批量处理跟网文针对开发。

以下以一键成书版本F为例(一键成书系列软件及数据快读BC操作相同)

6.打开软件,点击左下角的ai设置keys,会弹出配置界面

image.png

点击箭头那里,左键鼠标。
image.png

点击ollama本地大模型,就切换到了ollama。

这里需要注意一下,切换到ollama之后,我们需要在红框位置的1后面输入14b这样才能调用出ai。
image.png

设置好之后,需要我们测试一下,点击测试按键就可以看到是否接入成功了,本地大模型处理起来会慢一些。

当他出现图片这样的反馈之后,就说明我们已经设置好了

相关文章
|
8月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
7月前
|
弹性计算 监控 并行计算
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
|
8月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
4698 13
|
8月前
|
人工智能 数据可视化 API
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。 在这样的背景下,本地部署DeepSeek模型的需求也日益增加。本地部署不仅可以避免网络延迟和数据隐私问题,还能根据用户需求进行定制化优化。结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio AI等工具,用户可以轻松实现模型的本地化部署,并通过可视化面板
1306 8
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)
|
8月前
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
5535 8
|
8月前
|
人工智能 自然语言处理 Java
Spring 集成 DeepSeek 的 3大方法(史上最全)
DeepSeek 的 API 接口和 OpenAI 是兼容的。我们可以自定义 http client,按照 OpenAI 的rest 接口格式,去访问 DeepSeek。自定义 Client 集成DeepSeek ,可以通过以下步骤实现。步骤 1:准备工作访问 DeepSeek 的开发者平台,注册并获取 API 密钥。DeepSeek 提供了与 OpenAI 兼容的 API 端点(例如),确保你已获取正确的 API 地址。
Spring 集成 DeepSeek 的 3大方法(史上最全)
|
8月前
|
人工智能 自然语言处理 Linux
5分钟Deepseek R1本地化部署
DeepSeek R1 是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。本文介绍如何通过开源框架Ollama在本地快速部署DeepSeek R1。Ollama简化了大型语言模型的部署过程,支持多种操作系统和模型格式,提供便捷的安装、启动及API接口,使得研究人员和开发者能轻松运行和定制模型。通过简单的命令行操作和HTTP API,用户可以在本地环境中高效利用DeepSeek R1的强大功能。
752 5
|
10月前
|
监控 Java Go
编译时插桩,Go应用监控的最佳选择
本文讲解了阿里云编译器团队和可观测团队为了实现Go应用监控选择编译时插桩的原因,同时还介绍了其他的监控方案以及它们的优缺点。
936 113
|
8月前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
3513 11
阿里云PAI部署DeepSeek及调用
|
8月前
|
自然语言处理 算法 搜索推荐
《当NLP邂逅GIS:跨界融合的无限可能》
自然语言处理(NLP)与地理信息系统(GIS)的融合正开启全新应用大门,带来智能地理信息检索、地理知识图谱构建、灾害预警优化及智能导航等创新。通过NLP理解复杂语义并转化为GIS指令,降低了用户门槛,提升了效率。然而,数据异构性、语义理解复杂性、计算资源瓶颈及复合型人才短缺等问题仍待解决。尽管面临挑战,未来NLP与GIS的深度融合将为各行业带来更多变革与发展机遇。
150 12