三分钟让Dify接入Ollama部署的本地大模型!

本文涉及的产品
视觉智能开放平台,图像通用资源包5000点
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 本文介绍了如何运行 Ollama 并在 Dify 中接入 Ollama 模型。通过命令 `ollama run qwen2:0.5b` 启动 Ollama 服务,访问 `http://localhost:11434`。在 Dify 中添加模型时,需填写正确的基础 URL 和模型信息。针对 Docker 部署的报错问题,提供了 Mac、Linux 和 Windows 上的解决方案,确保容器能正确访问 Ollama 服务。

1 运行 Ollama

与 qwen2:0.5b 聊天

ollama run qwen2:0.5b
AI 代码解读

启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。

2 Dify 中接入 Ollama

2.1 添加模型

设置 > 模型供应商 > Ollama 添加模型:

填写 LLM 信息:

模型名称:以 ollama 返回的为准

$ ollama ls
NAME          ID              SIZE      MODIFIED
qwen2:0.5b    6f48b936a09f    352 MB    7 months ago
AI 代码解读

那就得填写:qwen2:0.5b

基础 URL:http://<your-ollama-endpoint-domain>:11434

此处需填写 Ollama 服务地址。如果填写公开 URL 后仍提示报错,请参考常见问题,修改环境变量并使得 Ollama 服务可被所有 IP 访问。

若 Dify 为:http://192.168.65.0:11434

  • Docker 部署,建议填写局域网 IP 地址,如:http://192.168.1.100:11434 或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434

  • 若为本地源码部署,可填 http://localhost:11434

  • 模型类型:对话

  • 模型上下文长度:4096

    模型的最大上下文长度,若不清楚可填写默认值 4096。

  • 最大 token 上限:4096

    模型返回内容的最大 token 数量,若模型无特别说明,则可与模型上下文长度保持一致。

  • 是否支持 Vision:

    当模型支持图片理解(多模态)勾选此项,如 llava

点击 "保存" 校验无误后即可在应用中使用该模型。

Embedding 模型接入方式与 LLM 类似,只需将模型类型改为 Text Embedding 即可。

2.2 使用 Ollama 模型

进入需要配置的 App 提示词编排页面,选择 Ollama 供应商下的 llava 模型,配置模型参数后即可使用:

3 报错

如用 Docker 部署 Dify 和 Ollama,可能遇到报错:

httpconnectionpool (host=127.0.0.1, port=11434): max retries exceeded with url:/api/chat (Caused by NewConnectionError ('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
AI 代码解读

3.1 原因

Docker 容器无法访问 Ollama 服务。localhost 通常指的是容器本身,而不是主机或其他容器。要解决此问题,你要将 Ollama 服务暴露给网络。

3.2 解决方案

3.2.1 在 Mac 上设置环境变量

如果 Ollama 作为 macOS 应用程序运行,调用 launchctl setenv 设置环境变量:

$ launchctl setenv OLLAMA_HOST "0.0.0.0"
AI 代码解读

重启 Ollama 应用程序。

若以上步骤无效,毕竟问题在 docker 内部,你应该连接到 host.docker.internal,才能访问 docker 的主机,所以将 localhost 替换为 host.docker.internal ,服务就可以生效了:

http://host.docker.internal:11434
AI 代码解读

在 Linux 上设置环境变量

如果 Ollama 作为 systemd 服务运行,应该使用 systemctl 设置环境变量:

  1. 通过调用 systemctl edit ollama.service 编辑 systemd 服务。这将打开一个编辑器。

  2. 对于每个环境变量,在 [Service] 部分下添加一行 Environment

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
    
    AI 代码解读
  3. 保存并退出。

  4. 重载 systemd 并重启 Ollama:

    systemctl daemon-reload
    systemctl restart ollama
    
    AI 代码解读

在 Windows 上设置环境变量

在 Windows 上,Ollama 继承了你的用户和系统环境变量。

  1. 首先通过任务栏点击 Ollama 退出程序

  2. 从控制面板编辑系统环境变量

  3. 为你的用户账户编辑或新建变量,比如 OLLAMA_HOSTOLLAMA_MODELS 等。

  4. 点击 OK / 应用保存

  5. 在一个新的终端窗口运行 ollama

如何在我的网络上暴露 Ollama?

Ollama 默认绑定 127.0.0.1 端口 11434。通过 OLLAMA_HOST 环境变量更改绑定地址。

参考:

本文已收录在Github关注我,紧跟本系列专栏文章,咱们下篇再续!

  • 🚀 魔都架构师 | 全网30W+技术追随者
  • 🔧 大厂分布式系统/数据中台实战专家
  • 🏆 主导交易系统亿级流量调优 & 车联网平台架构
  • 🧠 AIGC应用开发先行者 | 区块链落地实践者
  • 🌍 以技术驱动创新,我们的征途是改变世界!
  • 👉 实战干货:编程严选网
目录
打赏
0
1
2
0
1892
分享
相关文章
千帆大模型平台再升级:接入大模型最多、Prompt模板最全面
千帆大模型平台再升级:接入大模型最多、Prompt模板最全面
441 1
云端服务器应用实践:函数计算X 通义千问快速部署 AI 个人助手应用
云端服务器应用实践:函数计算X 通义千问快速部署 AI 个人助手应用
442 2
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
4390 119
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
12993 86
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。
2047 19
零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型
使用 Websoft9 面板,搭建 DeepSeek 等私有化模型只需三步
使用 Websoft9 面板,搭建 DeepSeek 等私有化模型只需三步
34 4
高效部署通义万相Wan2.1:使用Gradio搭建WebUI体验实战
随着通义万相Wan2.1 在社区的热度持续上涨,魔搭创空间的体验Demo(https://modelscope.cn/studios/Wan-AI/Wan-2.1)已经排起长队。
563 12
Dify: 一款宝藏大模型开发平台: 部署及基础使用
Dify 是一款开源的大语言模型(LLM)应用开发平台,融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使非技术人员也能参与 AI 应用的定义和数据运营。计算巢提供了 Dify 的快速部署解决方案,包括单机版和高可用版,支持通过 Docker Compose 和阿里云 ACK 部署,适用于开发测试和生产环境。用户可以通过配置 API、WebApp 脚手架等轻松集成 Dify 到业务中,极大简化了大语言模型应用的开发流程。
使用Ollama和Botnow本地部署DeepSeek R1模型的对比分析
本文详细对比了使用Ollama和Botnow两种方式在本地运行DeepSeek R1等开源大模型的不同。通过Ollama,用户可以在个人电脑(如MacBook Pro)上快速部署和测试模型;而Botnow则提供了企业级的API接入和本地部署方案,支持更复杂的应用场景。具体步骤包括环境准备、模型下载与运行、图形化界面操作等,帮助用户选择最适合自己的方式体验大模型的强大功能。
247 0
FastGPT一站式解决方案[1-部署篇]:轻松实现RAG-智能问答系统(含sealos云端部署、docker部署、OneAPI&Xinference模型接入)
【9月更文挑战第5天】 FastGPT一站式解决方案[1-部署篇]:轻松实现RAG-智能问答系统(含sealos云端部署、docker部署、OneAPI&Xinference模型接入)
 FastGPT一站式解决方案[1-部署篇]:轻松实现RAG-智能问答系统(含sealos云端部署、docker部署、OneAPI&Xinference模型接入)

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等