OpenClaw 配置 Ollama 本地推理服务详细步骤

简介: 本教程详解OpenClaw连接本地Ollama模型的完整流程:从官网下载安装Ollama、设置模型路径、终端拉取模型(如gemma4:e4b),到OpenClaw中配置地址`http://127.0.0.1:11434`、测试识别、聊天页启用,实现免费、离线、隐私可控的AI对话。(239字)

OpenClaw 连接 Ollama 本地模型教程
前置准备

已安装并能正常打开 OpenClaw Windows 客户端
OpenClaw 顶部 Gateway 状态保持在线
电脑可正常联网,能访问 Ollama 官网
磁盘空间充足(本地模型占用空间较大)
提前确认待下载的模型名称(示例:gemma4:e4b)

获取OpenClaw地址如图


2026.png

图文步骤
步骤 1:打开 Ollama 官网下载安装包

访问 Ollama 官网首页
点击页面右上角 Download,准备获取最新版安装文件。
1.png

步骤 2:选择 Windows 版本下载
进入下载页后:
选择 Windows 选项卡
点击 Download for Windows
等待安装包下载完成(需 Windows 10 及以上系统)。
2.png

步骤 3:安装 Ollama
双击下载好的安装程序,在安装窗口点击 Install,等待安装自动完成即可。
3.png

步骤 4:打开 Ollama 设置页
安装完成并启动 Ollama 后,在左侧菜单点击 Settings,准备调整模型存储位置。
4.png

步骤 5:修改模型存储路径
在设置页找到 Model location 选项:
点击 Browse,选择大容量磁盘目录(示例:E:\models)
也可保留默认路径直接使用
5.png

步骤 6:打开 Windows 终端
右键点击 Windows 开始菜单,选择 终端(Powershell),打开命令行窗口。
6.png

步骤 7:执行命令拉取并运行模型
在终端输入模型下载运行命令(示例):
plaintext
ollama run gemma4:e4b
第一次执行时,Ollama 会自动下载对应模型,下载完成后终端显示 success 即代表成功。
7.png

步骤 8:Ollama 客户端确认模型
返回 Ollama 客户端,在模型列表中找到刚下载的模型(如 gemma4:e4b),状态显示已下载即拉取成功。
8.png

步骤 9:OpenClaw 配置 Ollama 并测试
回到 OpenClaw 客户端:
点击右上角 设置
进入左侧 模型配置
找到 Ollama 选项
地址栏输入:http://127.0.0.1:11434
点击 测试
点击右上角 保存全部配置
测试成功后,OpenClaw 会自动识别已下载的本地模型。
9.png

步骤 10:聊天页选择 Ollama 模型
进入 OpenClaw 左侧 聊天 页面,在模型选择框搜索目标模型名称(如 gemma4:e4b),确认模型后标注 ollama 标签,点击选中。
10.png

步骤 11:发送消息验证模型可用性
选中模型后,在聊天输入框发送测试消息(示例:你好,你是什么模型),若页面正常返回内容,说明 Ollama 已成功接入 OpenClaw。
11.png

接入完成自检清单
已从 Ollama 官网下载并安装 Windows 版本
Ollama 正常启动运行
已按需修改模型存储路径
终端执行 ollama run 模型名 命令
模型下载完成,终端显示 success
OpenClaw 中 Ollama 地址填写为http://127.0.0.1:11434
点击测试并成功识别可用模型
保存全部配置
聊天页选中带 ollama 标签的模型
发送测试消息并收到正常回复

常见问题

  1. Ollama 地址应该填什么?
    本机默认填写:http://127.0.0.1:11434
    Ollama 安装在当前电脑时,直接使用该地址即可。
  2. 点击测试后未识别到模型?
    优先排查以下项:
    Ollama 是否正常启动
    是否在终端执行过ollama run 模型名
    模型是否已完整下载
    地址是否填写为http://127.0.0.1:11434
    是否被防火墙或安全软件拦截
  3. 为什么要在终端先运行一次模型?
    ollama run 模型名第一次执行会自动下载模型,只有模型完整保存到本地后,OpenClaw 才能识别并调用。
  4. 模型文件过大如何处理?
    本地模型占用磁盘空间较多,系统盘空间不足时,建议先在 Ollama 设置中将 Model location 改到大容量磁盘,再下载模型。
相关文章
|
22小时前
|
人工智能 机器人 测试技术
用 Bub 和飞书搭一个更懂群聊上下文的小机器人
手把手教你搭建 Bub:一个懂群聊上下文、无“班味”的轻量化 AI 助理。
用 Bub 和飞书搭一个更懂群聊上下文的小机器人
|
18小时前
|
自然语言处理 Linux API
《从零开始写SKILL.md:OpenClaw技能开发的核心步骤》
本文深度解析OpenClaw中SKILL.md文档编写的底层逻辑与实战方法,点明这份文档是决定大模型技能发挥效果的关键核心。文章指出多数开发者忽视SKILL.md的重要性,导致技能触发不准、执行低效。系统拆解元数据各字段编写规范,涵盖名称、描述、版本、依赖、系统适配等核心要点,同时讲解正文概述、执行步骤、示例、边界场景、输出格式及技能联动的撰写准则。还梳理了编写中常见误区,强调语言简洁精炼、信息适度精简、拒绝照搬模板,并提出需结合大模型特性持续测试迭代、长期维护文档。掌握其编写逻辑与技巧,就能吃透OpenClaw技能开发核心,打造高质量可用技能。
|
18小时前
|
存储 人工智能 监控
《OpenClaw本地大模型部署与多模型协作指南》
本文详细记录了OpenClaw与Ollama深度集成构建纯本地智能工作流的完整实践,剖析了两者分层解耦架构与轻量部署特性的天然互补性。从基础服务连接配置入手,系统阐述了模型参数规模选择、量化级别权衡、内存管理优化等核心技术要点,介绍了多模型任务适配、本地文件处理、代码分析辅助、智能工作流编排等核心应用场景。同时覆盖混合模型部署、任务调度、记忆管理、安全隔离与性能调优等进阶内容,提供了一套零云端依赖、数据完全可控、支持离线运行的个人AI生产力解决方案,为追求隐私安全与成本可控的开发者提供了可直接复用的实践路径。
|
1天前
|
人工智能 自然语言处理 Java
Java做AI真不行?2026年最被低估的机会来了
Spring官宣集成DeepSeek,Java正式迈入AI驱动时代!2026年AI岗位缺口巨大,大厂招聘普遍要求大模型能力。Java团队借力Spring生态与JBoltAI等国产框架,可低门槛接入代码生成、RAG、Agent等全链路AI能力,实现差异化突围。(239字)
35 3
|
23小时前
|
缓存 安全 小程序
Lua-LSM 系列二:从 CopyFail 到 Dirty Frag,看 732 字节的漏洞,用 79 字节关上
最近发生的真实安全漏洞场景,展示 Lua-LSM 如何在 79 字节内完成对内核提权漏洞的热缓解。
|
23小时前
|
人工智能 安全 专有云
深度访谈:阿里云×平头哥,模型推理提升13倍背后的秘密
2026年初,AI焦点正从“对话”转向“推理”:OpenClaw爆火、AI Coding成新基建、大模型迈向Agent化执行。算力瓶颈、成本压力与安全预警交织,推理效率成为产业主战场。本文深度对话阿里云与平头哥专家,剖析软硬协同、MoE优化、量化压缩等关键技术演进,揭示国产AI基础设施如何通过系统级创新突破“不可能三角”。
|
安全 算法 区块链
花无涯带你走进黑客世界之Tor洋葱网络
Tor本来是为用户提供匿名上网保护用户隐私的工具,但是对于一些用户来说,他们可以利用Tor的隐蔽性进行黑客攻击或非法交易活动。总结Tor的恶意应用主要表现在以下几方面。
937 0
|
1月前
|
人工智能 移动开发 安全
零基础用 OpenClaw AI 制作 HTML5 企业官网
OpenClaw(小龙虾)是一款本地离线AI工具,支持零代码生成HTML5企业静态网站。通过自然语言描述需求(如行业、风格、页面模块),30分钟内即可完成部署、生成、调试与上线,全程不联网、数据不出本地,安全可控,适合中小企业快速建站。(239字)
523 125
|
3天前
|
人工智能 API Windows
实操教程:OpenClaw 对接 DeepSeek 大模型方法
本教程详解OpenClaw接入DeepSeek模型的完整流程:从环境准备、平台登录、实名认证、余额充值,到API密钥创建与保存,再到OpenClaw端配置、测试及模型选用(如deepseek-chat/v4-flash/v4-pro),最后提供自检清单与高频问题排障指南,助用户零基础快速完成本地AI智能体部署。(239字)