使用Ollama和Botnow本地部署DeepSeek R1模型的对比分析

简介: 本文详细对比了使用Ollama和Botnow两种方式在本地运行DeepSeek R1等开源大模型的不同。通过Ollama,用户可以在个人电脑(如MacBook Pro)上快速部署和测试模型;而Botnow则提供了企业级的API接入和本地部署方案,支持更复杂的应用场景。具体步骤包括环境准备、模型下载与运行、图形化界面操作等,帮助用户选择最适合自己的方式体验大模型的强大功能。

      目前,开源社区有类似Ollama等工具支持本地部署DeepSeek等开源大模型,使个人用户能在笔记本电脑上快捷、透明的上手体验大模型;同时面向企业用户的智能体平台Botnow也已迅速接入DeepSeek R1官方API和本地部署DeepSeek系列模型两种方式。本文客观地对比分析了使用Ollama和Botnow本地运行DeepSeek R1等开源大模型的不同,以供用户实践参考。


Part 1使用Ollama本地部署DeepSeek R1模型


一、安装前的环境准备


硬件概览:

型号:MacBook Pro

芯片:Apple M3 Pro

核总数:12(6性能和6能效)

内存:18 GB

储存空间:1T

浏览器:

Google Chrome


二、DeepSeek模型简介及尺寸说明

考虑到单机Mac的资源局限,这里选择“DeepSeek-R1-Distill-Qwen-7B”模型作为示例。


三、下载ollama到本地

下载链接:https://ollama.com/download


四、下载并运行 deepseek-r1:7b

ollama run deepseek-r1:7b


模型文件拉取完毕,会出现“Success”提示


五、测试运行


输入提示词“比较一下3.8和3.11哪个大,并给出分析过程”



运行“ollama -h”查看更多命令



Part 2使用浏览器插件图形化体验本地模型


一、安装Chrome浏览器插件“Page Assist”


1. 打开Google Chrome浏览器,地址栏输入 chrome://extensions/ ,打开浏览器扩展程序


2. 搜索插件“Page Assist”,点击安装


二、 使用图形化界面运行 DeepSeek R1 模型


1. 从Google浏览器打开“Page Assist”插件




2. 选择前面下载的deepseek-r1:7b模型

3. 输入示例问题,如“如何找到下一个DeepSeek的创业项目”



4. 查看更多设置



Part 3使用Botnow体验DeepSeek R1模型


一、使用 Botnow 接入的 DeepSeek R1 官方 API


1. 登录智能体平台 Botnow SaaS 版(域名:https://botnow.cn

2. 进入“Bots”,点击“新建Bot”



3. 模型设置选择“DeepSeek reasoner”模型



4. 输入示例提示词“如何实现载人登月,给出具体分析步骤”




二、使用 Botnow 本地部署 DeepSeek R1 模型


1. 登录智能体平台 Botnow SaaS版(域名:https://botnow.cn


2. 进入“模型管理”->“模型仓库”,点击“创建模型”


DeepSeek-R1-Distill-Qwen-7B”模型文件拉取完毕后,可进行模型部署。


3. 进入“模型部署”,点击“创建模型服务”


4. 参考上一节创建Bot,选择“DeepSeek-R1-Distill-Qwen-7B”模型


Part 4 总结对比




目录
相关文章
|
12月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
5573 13
|
2月前
|
存储 人工智能 运维
一行代码实现智能异常检测:UModel PaaS API 架构设计与最佳实践
阿里云 UModel PaaS API 发布:通过 Table + Object 双层抽象,屏蔽存储差异、自动处理字段映射与过滤条件,让每一个实体都成为一个‘可调用的对象’,真正实现‘以实体为中心’的智能可观测。
880 128
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
14947 86
|
机器学习/深度学习 监控 Linux
ollama+openwebui本地部署deepseek 7b
Ollama是一个开源平台,用于本地部署和管理大型语言模型(LLMs),简化了模型的训练、部署与监控过程,并支持多种机器学习框架。用户可以通过简单的命令行操作完成模型的安装与运行,如下载指定模型并启动交互式会话。对于环境配置,Ollama提供了灵活的环境变量设置,以适应不同的服务器需求。结合Open WebUI,一个自托管且功能丰富的Web界面,用户可以更便捷地管理和使用这些大模型,即使在完全离线的环境中也能顺利操作。此外,通过配置特定环境变量,解决了国内访问限制的问题,例如使用镜像站来替代无法直接访问的服务。
|
人工智能
用好Deepseek
构建高效提问体系,让deepseek成为你的智商增量。通过高维提问,解锁其隐藏潜力,不再只是搬运答案。细节与认知厚度决定反馈质量,使用STAR法则(情景、任务、行动、结果)优化提问,AI不仅能提供答案,更能帮你搭建完整解决方案,提升认知水平。
|
12月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
12月前
|
人工智能 Windows
【Deepseek本地部署】新手教程,2025最新版 仅供参考!
由于 DeepSeek 开源版对硬件配置要求较高,普通用户的计算机往往难以满足,因此本地部署通常只能选择最低版本的模型。该版本算力大致相当于早期版本的 GPT-3.0,与当前最先进的模型相比存在较大差距。在这种情况下,本地部署 DeepSeek 的主要意义可能在于满足用户的好奇心和体验需求,其实用性相对有限。
1067 16
|
Linux Docker 异构计算
基于Dify +Ollama+ Qwen2 完成本地 LLM 大模型应用实战
尼恩,一位拥有40年经验的老架构师,通过其丰富的行业经验和深入的技术研究,为读者提供了一套系统化、全面化的LLM大模型学习圣经。这套学习资料不仅帮助许多从业者成功转型,还助力多位工程师获得了高薪工作机会。
|
12月前
|
机器学习/深度学习 监控 API
本地部署DeepSeek模型技术指南
DeepSeek模型是一种先进的深度学习模型,广泛应用于自然语言处理等领域。本文详细指导如何在本地部署DeepSeek模型,涵盖环境准备(硬件和软件要求、依赖库安装)、模型下载与配置、部署(创建Flask应用、运行API)、优化(GPU加速、模型量化、ONNX Runtime)及监控维护等内容。通过本文,您将能够在本地成功部署并运行DeepSeek模型,确保其高效稳定。