使用Ollama和Botnow本地部署DeepSeek R1模型的对比分析

简介: 本文详细对比了使用Ollama和Botnow两种方式在本地运行DeepSeek R1等开源大模型的不同。通过Ollama,用户可以在个人电脑(如MacBook Pro)上快速部署和测试模型;而Botnow则提供了企业级的API接入和本地部署方案,支持更复杂的应用场景。具体步骤包括环境准备、模型下载与运行、图形化界面操作等,帮助用户选择最适合自己的方式体验大模型的强大功能。

      目前,开源社区有类似Ollama等工具支持本地部署DeepSeek等开源大模型,使个人用户能在笔记本电脑上快捷、透明的上手体验大模型;同时面向企业用户的智能体平台Botnow也已迅速接入DeepSeek R1官方API和本地部署DeepSeek系列模型两种方式。本文客观地对比分析了使用Ollama和Botnow本地运行DeepSeek R1等开源大模型的不同,以供用户实践参考。


Part 1使用Ollama本地部署DeepSeek R1模型


一、安装前的环境准备


硬件概览:

型号:MacBook Pro

芯片:Apple M3 Pro

核总数:12(6性能和6能效)

内存:18 GB

储存空间:1T

浏览器:

Google Chrome


二、DeepSeek模型简介及尺寸说明

考虑到单机Mac的资源局限,这里选择“DeepSeek-R1-Distill-Qwen-7B”模型作为示例。


三、下载ollama到本地

下载链接:https://ollama.com/download


四、下载并运行 deepseek-r1:7b

ollama run deepseek-r1:7b


模型文件拉取完毕,会出现“Success”提示


五、测试运行


输入提示词“比较一下3.8和3.11哪个大,并给出分析过程”



运行“ollama -h”查看更多命令



Part 2使用浏览器插件图形化体验本地模型


一、安装Chrome浏览器插件“Page Assist”


1. 打开Google Chrome浏览器,地址栏输入 chrome://extensions/ ,打开浏览器扩展程序


2. 搜索插件“Page Assist”,点击安装


二、 使用图形化界面运行 DeepSeek R1 模型


1. 从Google浏览器打开“Page Assist”插件




2. 选择前面下载的deepseek-r1:7b模型

3. 输入示例问题,如“如何找到下一个DeepSeek的创业项目”



4. 查看更多设置



Part 3使用Botnow体验DeepSeek R1模型


一、使用 Botnow 接入的 DeepSeek R1 官方 API


1. 登录智能体平台 Botnow SaaS 版(域名:https://botnow.cn

2. 进入“Bots”,点击“新建Bot”



3. 模型设置选择“DeepSeek reasoner”模型



4. 输入示例提示词“如何实现载人登月,给出具体分析步骤”




二、使用 Botnow 本地部署 DeepSeek R1 模型


1. 登录智能体平台 Botnow SaaS版(域名:https://botnow.cn


2. 进入“模型管理”->“模型仓库”,点击“创建模型”


DeepSeek-R1-Distill-Qwen-7B”模型文件拉取完毕后,可进行模型部署。


3. 进入“模型部署”,点击“创建模型服务”


4. 参考上一节创建Bot,选择“DeepSeek-R1-Distill-Qwen-7B”模型


Part 4 总结对比




目录
相关文章
|
1月前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
4345 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
1月前
|
人工智能 自然语言处理 测试技术
在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型
如何在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型
293 97
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
2月前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
12924 86
|
1月前
|
存储 人工智能 API
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
22天前
|
人工智能 弹性计算 Ubuntu
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
1060 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
|
1月前
|
人工智能 Linux API
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。
2024 19
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
|
19天前
|
机器学习/深度学习 人工智能 测试技术
阿里云百炼已上线超强推理开源模型QwQ-32B,尺寸更小,性能比肩DeepSeek满血版
通义千问团队推出了320亿参数的QwQ-32B模型,通过大规模强化学习和多阶段训练,在数学、编程及通用能力上达到或超越了DeepSeek-R1等先进模型。QwQ-32B模型已在阿里云百炼上线,支持API调用,用户可通过官方文档了解详细使用方法。未来,团队将继续探索智能体与RL集成,推动人工通用智能的发展。
|
15天前
|
测试技术 容器
DeepSeek-R1-Distill-Qwen-1.5B基于MindIE推理实践
基于MindIE实现DeepSeek-R1-Distill-Qwen-1.5B的纯模型推理和服务化推理。
|
12天前
|
机器学习/深度学习 存储 人工智能
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型