ollama+openwebui本地部署deepseek 7b

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
实时计算 Flink 版,1000CU*H 3个月
简介: Ollama是一个开源平台,用于本地部署和管理大型语言模型(LLMs),简化了模型的训练、部署与监控过程,并支持多种机器学习框架。用户可以通过简单的命令行操作完成模型的安装与运行,如下载指定模型并启动交互式会话。对于环境配置,Ollama提供了灵活的环境变量设置,以适应不同的服务器需求。结合Open WebUI,一个自托管且功能丰富的Web界面,用户可以更便捷地管理和使用这些大模型,即使在完全离线的环境中也能顺利操作。此外,通过配置特定环境变量,解决了国内访问限制的问题,例如使用镜像站来替代无法直接访问的服务。

介绍

Ollama是一个开源的大模型管理工具,它提供了丰富的功能,包括模型的训练、部署、监控等。 通过Ollama,你可以轻松地管理本地的大模型,提高模型的训练速度和部署效率。 此外,Ollama还支持多种机器学习框架,如TensorFlow、PyTorch等,使得你可以根据自己的需求选择合适的框架进行模型的训练
官网:https://ollama.com/

Open WebUI是一个可扩展、功能丰富、用户友好的自托管WebUI,旨在完全离线操作。 它支持各种LLM运行程序,包括Ollama和OpenAI兼容的API。
官网:https://www.openwebui.com/

ollama部分

下载 安装包

从官网看,是通过脚本安装的
https://ollama.com/install.sh

下载这个脚本,会发现里面的下载安装包的真实路径:
https://ollama.com/download/ollama-linux-amd64.tgz

由于在linux机器上直接下载,会比较慢(需要科学上网)。 建议从mac上下载后,scp到 日常环境的linux机器上

cd /home/sean.xd/ollama_install

tar zxvf ollama-linux-amd64.tgz

解压后,将解压出来的 bin/ollama 复制到 /home/sean.xd/bin/ 目录
将解压出来的 lib/ollama 复制到 /home/sean.xd/lib/ 目录

将当前用户的 /home/sean.xd/bin 追加到 PATH中

ollama -h 看看结果

可以看到, ollama命令,已经在PATH中了

配置环境变量

export OLLAMA_HOST="0.0.0.0:11434"
export OLLAMA_MODELS=/home/sean.xd/ollama_models

这两行是指定端口和下载model的目录

启动ollama后台进程

在目录 /home/sean.xd/ollama_install 新建一个脚本 run_serve.sh

nohup  ollama  serve  >run.log 2>&1  &

启动后,ps aux | grep ollama 看看结果

$ ps aux | grep ollama
sean.xd   49411  2.3  0.0 2297372 88988 pts/5   Sl   15:03   0:15 ollama serve

启动后,看看日志 run.log

检验是否启动成功,执行如下命令
ollama list

$ ollama list
NAME                ID              SIZE      MODIFIED

先启动一个小的模型,看看效果

ollama的网站,没有被墙,访问速度非常快

https://ollama.com/library/deepseek-r1:1.5b

执行命令

ollama run deepseek-r1:1.5b

等待大概1分钟,会启动一个命令行的输入, 输入你是谁,回车,看返回结果

后面又问了 python pydantic 怎么使用,给个例子。 也可以正常返回

经过以上过程, ollama 和 本地模型的部署,就完事了。

常用命令

查看本地已经pull下来哪些大模型
ollama list

查看本地已经在运行中的大模型
ollama ps

pip安装openwebui

踩坑心路历程
最开始尝试源码编译安装openwebui,发现nodejs版本必须得达到20。我平时使用的228机器,glibc版本过低,不行。心里忐忑,不敢升级glibc,因为踩过坑,大概率无法成功,且系统会被改坏,影响其他用户使用228机器。在mac上编译前端代码,没有遇到glibc版本的问题,但最新master分之,遇到报错。 老的版本,可以编译通过,但是没有搜索增强功能。

最终成功的方案如下:
直接pip一键安装openwebui

教程参考官方文档:
https://github.com/open-webui/open-webui

创建虚拟环境

conda create --prefix venv python=3.11

安装命令

./venv/bin/python -m pip install open-webui

启动命令

sh run_background.sh

set -x

# 打开debug开关,可以查看详细日志
export GLOBAL_LOG_LEVEL="DEBUG"
# 如果没有科学上网,则需要禁用OPENAI的访问,否则打开页面会很慢
export ENABLE_OPENAI_API=false
# 使用镜像网站,否则主界面进不去
HF_ENDPOINT=https://hf-mirror.com nohup ./venv/bin/open-webui  serve --port 8070  >run.log 2>&1  &

启动后,打开run.log 看到如下日志

注意:
HF_ENDPOINT=https://hf-mirror.com 这个环境变量的作用,是因为国内无法访问huggingface网站,需要使用镜像站。

简单试用

先注册账号,第一个注册的用户,就是超级管理员了

在聊天中,选择一个模型

输入 你是谁

看到回复,说明部署成功

开启搜索增强

点击进入“设置”,点击“管理员设置”后进入“联网搜索”配置页
● 勾选“启用联网搜索”
● 联网搜索引擎选择“duckduckgo”,免费。其余选项需提供apikey
● 可自定义调整搜索结果数量
● 点击右下角“保存按钮”
注意: 由于duckduckgo被墙,所以实际是无法使用的。如果服务器本身已经科学上网了,则可以使用。

其他扩展玩法

接入微博搜索

https://blog.csdn.net/gukugkg/article/details/144469724

实现了从微博上抓取最新信息的能力。

从 以上截图可以看到,获取了5条微博信息,并分析了内容

相关文章
|
7月前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
5358 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
7月前
|
人工智能 Linux API
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。
3149 19
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
|
7月前
|
弹性计算 Ubuntu Linux
一键部署OpenWebUI+Ollama到阿里云ECS,轻松运行DeepSeek!(保姆级教程)
在当今数据驱动的时代,快速部署和管理大模型成为企业的关键需求。阿里云提供了一键部署OpenWebUI+Ollama的便捷方案,支持本地大模型运行和管理。用户也可以选择连接阿里云百炼的在线模型。
一键部署OpenWebUI+Ollama到阿里云ECS,轻松运行DeepSeek!(保姆级教程)
|
自然语言处理
Ollama部署本地模型
Ollama 是一个用于本地部署大型语言模型的平台。首先关闭 ollama 服务,在环境变量中设置 `OLLAMA_MODELS` 为目标模型路径,`OLLAMA_ORIGINS` 为 `"*"`,重启服务和 VSCode。启动服务 `ollama serve`,运行 `ollama run codegeex4`。配置插件接口地址为 `http://localhost:11434/v1/chat/completions`,并在模型名称处填入 `codegeex4` 启用高级模式。可能需优化下载速度并解决其他问题。
1266 4
|
7月前
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
5187 8
|
8月前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
14357 86
|
7月前
|
人工智能 数据可视化 API
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。 在这样的背景下,本地部署DeepSeek模型的需求也日益增加。本地部署不仅可以避免网络延迟和数据隐私问题,还能根据用户需求进行定制化优化。结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio AI等工具,用户可以轻松实现模型的本地化部署,并通过可视化面板
1213 8
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)
|
7月前
|
机器学习/深度学习 弹性计算 人工智能
在阿里云ECS上一键部署DeepSeek-R1
Open WebUI 和 Ollama 的联合,通过集成 DeepSeek-R1 的强大功能,赋予每一位用户使用尖端 AI 技术的能力,使得复杂的 AI 技术不再是遥不可及的梦想。无论是研究人员、开发者,还是企业用户,您都能从这一创新中获得新的灵感和增长点。本文介绍通过计算巢一键部署和使用DeepSeek-R1。
在阿里云ECS上一键部署DeepSeek-R1
|
7月前
|
人工智能
用好Deepseek
构建高效提问体系,让deepseek成为你的智商增量。通过高维提问,解锁其隐藏潜力,不再只是搬运答案。细节与认知厚度决定反馈质量,使用STAR法则(情景、任务、行动、结果)优化提问,AI不仅能提供答案,更能帮你搭建完整解决方案,提升认知水平。
|
7月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
4578 13