hermes + ollama 本地模型实践分享

简介: 想把 AI 跑在自己的电脑上?其实没那么难。本文介绍如何用 Ollama 配合 hermes-agent,只需一条命令,就能在本地启动。数据全程不离开自己的硬盘,断网也能用。通过 Java 和 k8s 日志案例,展示了 hermes-agent 自动创建并改进技能的全过程,一行代码都不用写。

你有没有想过,把 AI 直接跑在自己的电脑上?这样就不用注册账号、不用配置云服务器了,公司的代码、私人的日志全程不离开自己的硬盘,断网也能用。听起来技术门槛有些高?其实不然。现在主流的办公笔记本大多配置都有 8 核 16G,在自己的办公电脑上跑一个 AI 基本都没什么压力。


今天就聊聊怎么用最简单的方式,在自己的电脑上跑一个这样的 AI。它的组合就是:Ollama 加上 hermes-agent。不用懂复杂的代码,只要跟着做就能用一条命令搞定。



01

Ollama 与 hermes-agent 组合



通过 Ollama,不仅可以把模型下载到自己的电脑上跑,还可以把 hermes-agent 也下载到自己的电脑上跑。通过这两个工具实现自己的本地化部署方案,模型和 Agent 都在自己的电脑上,然后指挥 hermes-agent 干活。


Ollama 号称是"最受欢迎的本地大模型运行工具",通过它可以快速地安装各类的开源模型到自己电脑上,如 Qwen 系列、Deepseek 等。另外不用担心自己电脑没有装显卡能不能跑模型这个问题,因为 Ollama 其中一个厉害之处就是它有一个“CPU-only”模式,就算电脑只有 CPU 它也可以在电脑上跑模型,不一定非要依靠显卡。


hermes-agent 是一个会自我学习进化的 Agent,在 GitHub 上已经有 10 万+的 Star 了。它能记住我们跟它聊过啥、有自己的记忆,不仅自带了 70 多种现成的技能,更厉害的是它还能给自己写新技能并改进。


以前运行这两个工具组合可能需要做一些安装、配置操作,但最近在 Ollama 发布的版本已经官方支持了一键部署 hermes-agent,只要一条命令就可以在本地运行启动 hermes-agent。简化大量操作,可以不需要去搞懂那些复杂的配置,也不用去申请什么模型的 API 密钥。现在这两个工具合在一块使用,只要你电脑带得动,它就能 24 小时给你执行任务。总的来看有以下优点:


  • 门槛超低:现在主流的办公笔记本标配 16G 内存,基本上装了就能跑,不需要专门买台新电脑。


  • 数据安全:所有数据都在你自己的硬盘里,还有断网都能用,也不用怕隐私数据泄露。


  • 不额外花钱:不用交订阅费,不用租云服务器,在自己电脑上跑,没什么额外成本。


  • 操作简单:不用额外配环境,一条命令直接搞定。



02

一条命令运行 hermes-agent



这两个工具组合在本地部署分两步,第一步是安装 Ollama (建议版本号不低于 0.21,官网页直接下载的一般就是最新版了),然后再执行一条命令就能运行 hermes-agent 了。


image.png

图:安装操作流程


第一步:装个 Ollama


如果你电脑上还没 Ollama,直接去 Ollama 官网 下载安装包。不管你是苹果 Mac、Windows 还是 Linux 都能装,跟装微信一样简单。


图:Ollama官网获取下载链接/安装包


图:安装Ollama


第二步:用 Ollama 一条命令运行 hermes-agent


打开你电脑上的终端(Terminal),执行下面这行代码就能运行:

ollama launch hermes



图:执行运行hermes-agent命令


这个命令因为会自动下载一些内容所以大概要等个两三分钟,执行这条命令后,剩下的活儿 Ollama 全包了:


1. 自动下载:如果你还没装 hermes-agent,它会自动完成下载。


2. 选择模型:它会弹个列表让你选个本地模型(比如 qwen3.6或者 gemma4 ,就看自己想用哪个,都可以通过 Ollama 安装到本地),选择后若模型不存在就会去下载模型到本地运行。


图:选模型


3. 自动配置:它会自动把所有接口都配置好,给 hermes-agent 连接上刚选的模型,然后直接就能用,最后启动 hermes-agent。


提示:

  • 如果用的是 Windows 会麻烦一点,要多执行一个步骤,需要先装个叫 WSL2 的东西(在终端里输入 wsl --install 就能安装 WSL2 了),然后在 WSL 里面跑上面那条运行命令 。
  • 本地跑的模型,模型运行性能上限取决于自己的电脑配置强弱。如果是普通办公本,跑起来可能会比云供应商提供的模型慢一些,Agent 处理复杂任务时也需要多等一会儿。



03

实践:hermes-agent 写个“日志分析”技能



hermes-agent 最让人惊艳的就是它的技能系统(Skills System)。它不仅自带了一堆技能,还能在你给它安排了复杂任务后,自动把解决步骤存成一个新技能,下次直接用。

比如你教它怎么做报表,它不仅学会了,还自己写了本操作手册,下次你一句话它就能照着手册把活干完。再比如下面让它帮忙分析日志。


Java 日志分析


首先准备一个 java 日志如下:


2026-04-20 10:15:32.451 ERROR [order-service] 4512 --- [nio-8080-exec-1] c.e.order.service.OrderService : Failed to create order for user: U-1024
java.lang.NullPointerException: Cannot invoke "com.example.order.model.Cart.getItems()" because "cart" is null    
at com.example.order.service.OrderService.createOrder(OrderService.java:45)    
at com.example.order.controller.OrderController.submit(OrderController.java:22)
  


然后对 hermes-agent 说:

“帮我写个叫 log-checker 的技能。它要能扫描 .log 文件,找出所有的 ERROR 和 Exception 堆栈,并总结出报错原因和代码行号。”


图:发起创建技能的对话


它就会去创建对应日志分析技能 log-checker 如下:


374d4bd2990f4f0c92faa91d06505237.png

图:技能创建成功


创建完技能后让它开始去分析 java 日志文件,对 hermes-agent 说:

“/root/.hermes/logs/case目录下app.log 日志分析”


图:发起java日志分析对话


图:日志分析完成


以上就是它对 java 日志的分析报告以及给出的修复建议,还可以继续去让它帮忙分析 k8s 常见的 json 格式日志。


k8s 日志分析


准备一个 k8s 常见的 json 格式日志保存到 k8s-pod.json 文件中,如下:


{"ts":1713581732.451,"level":"error","msg":"Database connection timeout","pod":"inventory-app-7d5f5b-9p8wg","trace":"com.mysql.cj.jdbc.exceptions.CommunicationsException: Communications link failure"}
{"ts":1713581735.102,"level":"info","msg":"Retrying connection...","pod":"inventory-app-7d5f5b-9p8wg"}
[INFO] Some raw kernel message or system boot info...


然后继续跟 hermes-agent 对话:

“使用log-checker帮助分析 /root/.hermes/logs/case 目录下k8s-pod.json文件日志”


于是出现了下面这个 hermes-agent 自我改进的过程,它发现了刚才创建的日志分析技能log-checker 存在不足,然后它就开始扩展增强这个技能。


图:hermes-agent自我改进技能


在完成扩展后,它使用了修改后的技能对 json 日志进行分析:


图:hermes-agent分析k8s日志


以上整个过程,一行代码都不用写,全靠 hermes-agent 自己创建、改进技能。



04

结语



把 AI 跑在自己的电脑上,最大的好处不只是省事,更是安心。代码不用上传、日志不用外传,所有数据都在自己的硬盘里。而且整个过程就两步,装个 Ollama、跑一条命令,门槛真的没那么高。现在就去试试,装上跑一跑——反正又不额外花钱。



(如果这篇文章对您有所帮助,请帮忙 关注 并 转发,谢谢!)


参考资料

[1] Skills System | Hermes Agent.

https://hermes-agent.nousresearch.com/docs/user-guide/features/skills 


[2] Hermes Agent - Ollama.

https://docs.ollama.com/integrations/hermes


[3] Download Ollama.

https://ollama.com/download/linux


[4] Search Model - Ollama

https://ollama.com/search


目录
相关文章
|
19天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34862 48
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
13天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
12558 37
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
8天前
|
人工智能 JavaScript Ubuntu
低成本搭建AIP自动化写作系统:Hermes保姆级使用教程,长文和逐步实操贴图
我带着怀疑的态度,深度使用了几天,聚焦微信公众号AIP自动化写作场景,写出来的几篇文章,几乎没有什么修改,至少合乎我本人的意愿,而且排版风格,也越来越完善,同样是起码过得了我自己这一关。 这个其实OpenClaw早可以实现了,但是目前我觉得最大的区别是,Hermes会自主总结提炼,并更新你的写作技能。 相信就冲这一点,就值得一试。 这篇帖子主要就Hermes部署使用,作一个非常详细的介绍,几乎一步一贴图。 关于Hermes,无论你赞成哪种声音,我希望都是你自己动手行动过,发自内心的选择!
2606 27
|
30天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45768 157
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
6天前
|
人工智能 弹性计算 安全
Hermes Agent是什么?怎么部署?超详细实操教程
Hermes Agent 是 Nous Research 于2026年2月开源的自进化AI智能体,支持跨会话持久记忆、自动提炼可复用技能、多平台接入与200+模型切换,真正实现“越用越懂你”。MIT协议,部署灵活,隐私可控。
1876 3
|
4天前
|
弹性计算 人工智能 自然语言处理
阿里云Qwen3.6全新开源,三步完成专有版部署!
Qwen3.6是阿里云全新MoE架构大模型系列,稀疏激活显著降低推理成本,兼顾顶尖性能与高性价比;支持多规格、FP8量化、原生Agent及100+语言,开箱即用。
|
1天前
|
缓存 人工智能 自然语言处理
我对比了8个Claude API中转站,踩了不少坑,总结给你
本文是个人开发者耗时1周实测的8大Claude中转平台横向评测,聚焦Claude Code真实体验:以加权均价(¥/M token)、内部汇率、缓存支持、模型真实性及稳定性为核心指标。