Zabbix告警分析新纪元:本地DeepSeek大模型实现智能化告警分析

简介: 本文由Zabbix中国峰会演讲嘉宾张世宏撰写,介绍如何通过集成Zabbix监控系统与深度求索(DeepSeek)AI助手,构建智能化告警处理方案。该方案利用Webhook机制传递告警信息,借助DeepSeek的智能分析能力,帮助运维团队快速识别问题根源并提供解决方案。文章详细描述了技术架构、环境搭建、Webhook配置及实际案例,展示了AI在运维领域的应用前景和优势。

作者介绍 :张世宏,2016-2024 Zabbix中国峰会演讲嘉宾,Zbxtable研发者,社区专家

一、 引言

随着企业数字化转型的深入,IT系统日益复杂化和规模扩大化,传统的运维模式已难以应对海量告警信息的处理需求。如何在第一时间准确识别问题根源并提供有效的解决方案,成为运维团队面临的重大挑战。
Zabbix作为全球领先的开源监控解决方案,在帮助企业实现全面 IT 资产监控方面发挥着重要作用。而深度求索(DeepSeek)作为专注实现AGI的中国的人工智能公司,致力于为各行业提供先进的AI技术和服务。本文将介绍如何通过集成Zabbix与深度求索AI助手,构建智能化告警处理方案。本文参考官方博文(https://blog.zabbix.com/creating-a-personal-assistant-in-zabbix-with-artificial-intelligence/29596/)


二、方案概述

2.1 技术架构

本方案基于Zabbix监控系统,通过Webhook机制集成Deepseek AI助手,构建智能化运维体系。其核心架构包括:

Zabbix监控平台:负责实时监控和告警触发
Webhook接口:实现告警信息的传递
Deepseek AI平台:提供智能分析能力

2.2 实现原理

  • 告警触发时,Zabbix通过预定义动作发送HTTP请求至Webhook脚本
  • 脚本解析告警数据并调用Deepseek API进行分析
  • 返回结果整合到Zabbix操作界面,供运维人员参考

2.3 系统架构

图片1.png

三、DeepSeek环境搭建

可根据自身环境选择使用云上的服务接口或使用本地部署的环境。鉴于安全和部分环境为离线环境,本次采用本地部署DeepSeek环境,本次使用deepseek-r1:70b

3.1 硬件配置

组件 配置
IP 192.168.6.80
OS Ubuntu 22.04.5 LTS
CPU Xeon Gold 6154
内存 88GB DDR5
GPU A100 80GB x2
磁盘 1TB NVMe SSD

3.2 DeepSeek本地部署

本次使用Ollama框架进行部署

# 在GPU服务器上安装Ollama,此过程会安装ollama、显卡驱动、CUDA工具等
curl -fsSL https://ollama.com/install.sh | sh

# 修改Ollama监听地址,编辑/etc/systemd/system/ollama.service文件中添加环境变量Environment="OLLAMA_HOST=0.0.0.0:11434",修改后的完整文件为
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

[Install]
WantedBy=default.target

# 重启服务
systemctl daemon-reload
systemct restart ollama

# 拉取DeepSeek-r1-70B模型并运行,此过程会下载40G大小的模型,耐心等待,下载完成后会自动运行模型
ollama run deepseek-r1:70b
# 验证模型加载状态
curl http://localhost:11434/api/tags

启动后进入对话,输入/bye退出对话。
图片2.png

如本地无条件,可选择租用线上机器进行,推荐使用spacehpc平台,在镜像市场选择DeepSeek-R1 70b镜像即可,开机后模型已下载好,直接运行即可。
图片3.png


四、Zabbix智能分析集成

4.1 软件配置

组件 配置
IP 172.16.60.161
OS Debian 12
Zabbix Zabbix 7.0.9
DB Mariadb 10.11.6

4.2 Webhook配置

4.2.1 配置Webhook

在Zabbix控制台中创建新的Webhook脚本,具体步骤如下

  1. 登录Zabbix控制台,点击“Alerts”->“Scripts”
  2. 点击"Create script"按钮,填写以下内容
    图片4.png
  • Name: 解决方案
  • Scope: Manual event action
  • Menu path: AI助手
  • Type: Webhook
  • Parameters: name:detail value: {TRIGGER.NAME},name: host value: {HOST.HOST}

图片5.png

  1. 在Script body中粘贴如下内容:
// 配置信息
var OLLAMA_API_URL = 'http://192.168.6.80:11434/api/chat'
var MODEL_NAME = 'deepseek-r1:70b'

/**
 * 生成告警消息
 * @param {Object} params - Zabbix 告警参数
 */
function generateAlertMessage(params) {
   
    return [
        '当前服务器告警,主机: ' + params.host,
        '详情: ' + params.detail,
        '请执行:1. 根本原因分析(概率排序)2. 提供修复命令3. 关联知识文档',
    ].join('\n')
}

/**
 * 发送消息到 Ollama Chat API
 * @param {string} message - 要发送的消息
 */
function sendToOllama(message) {
   
    try {
   
        // 准备请求数据
        var payload = JSON.stringify({
   
            model: MODEL_NAME,
            messages: [
                {
   
                    role: 'user',
                    content: message,
                },
            ],
            stream: false,
        })

        // 记录请求日志
        Zabbix.Log(4, '[Ollama Webhook] 发送请求: ' + payload)

        // 发送请求
        var response = new HttpRequest()
        //response.addHeader('Content-Type: application/json')
        var responseData = response.post(OLLAMA_API_URL, payload)

        // 检查响应
        if (response.getStatus() != 200) {
   
            throw new Error('API 请求失败,状态码: ' + response.getStatus())
        }
        // 记录成功日志
        Zabbix.Log(4, '[Ollama Webhook] 发送成功: ' + responseData)

        try {
   
            var result = JSON.parse(responseData)
            // chat API 返回的是 message 对象
            return result.message.content || '成功发送到 Ollama'
        } catch (e) {
   
            return '成功发送到 Ollama(响应解析失败): ' + e.message
        }
    } catch (error) {
   
        // 记录错误日志
        Zabbix.Log(3, '[Ollama Webhook] 错误: ' + error.message)
        throw error
    }
}

/**
 * Webhook 主函数
 */
try {
   
    // 验证必要的输入参数
    if (!value) {
   
        throw new Error('未收到告警信息')
    }

    Zabbix.Log(4, '[Ollama Webhook] 收到告警信息: ' + value)

    // 构造告警消息
    var params
    try {
   
        params = JSON.parse(value)
    } catch (e) {
   
        throw new Error('告警信息格式无效: ' + e.message)
    }

    // 生成并发送告警消息
    var alertMessage = generateAlertMessage(params)
    var response = sendToOllama(alertMessage)

    // 返回处理结果
    return '模型分析结果:\n' + response
} catch (error) {
   
    // 返回错误信息
    return '处理告警时出错: ' + error.message
}
  1. 设置Timeout为60s

    4.2.2 关键参数说明

  • OLLAMA_API_URL 为Ollama接口地址,默认端口为11434
  • OLLAMA_API_URL 为模型名称,可根据实际需求更改,本次使用deepseek-r1:70b

4.2.3 超时优化

Timeout配置为60s,点击保存。目前Webhook最大超时时间为60s,由于Deepseek思考时间可能较长,因此需要增加超时时间,可通过数据库方式直接配置为300s。

# 根据脚本名称更新脚本超时时间为300s
mysql -uzabbix -p
use zabbix;
update scripts set timeout='300s' where name ='解决方案';

4.3 告警分析实践

当Zabbix产生一个告警后,在问题上点击右键选择AI助手-解决方案,就会把此问题发送给Deepseek平台。
图片6.png

4.3.1 案例一:存储容量告警

告警信息:Windows: FS [(C:)]: Space is low (used > 80%, total 119.3GB)
模型输出
图片7.png
图片8.png
图片9.png
图片10.png
图片11.png

4.3.2 案列二:Agent失联告警

告警信息: Linux: Zabbix agent is not available (for 3m)
模型输出
图片12.png
图片13.png
图片14.png
图片15.png
图片16.png

从Deepseek给的思考过程和解决方案来看都非常专业,后期可考虑替代运维知识库。


五、 扩展应用场景

  1. 预测性维护
  • 基于历史数据进行趋势分析
  • 预测潜在硬件故障
  • 知识库自动化
  1. 自动生成标准化运维文档
  • 智能更新知识库内容
  • 多模态监控
  1. 综合分析日志与性能指标
  • 提供更全面的故障诊断视角
  1. 智能自愈
  • 结合自动化工具实现简单故障自愈
  • 设置分级响应策略

六、总结

Zabbix与深度求索AI助手的结合,为企业提供了一套智能化的告警处理解决方案。通过将人工智能技术引入运维领域,不仅提升了问题处理效率,还推动了运维模式的革新。未来,随着AI技术的不断发展,这种智能化运维方案必将得到更广泛的应用和持续优化。

后记

以上博文为Deepseek生成后再由作者修改,其中Webhook脚本也为Deepseek生成并通过本地调试修改后完成。

相关文章
|
5天前
|
机器学习/深度学习 人工智能 运维
运维告警别乱飞了!AI智能报警案例解析
运维告警别乱飞了!AI智能报警案例解析
53 0
|
3月前
|
传感器 人工智能 自然语言处理
比亚迪座舱接入通义大模型,未来将联合打造更多AI智能座舱场景
比亚迪与阿里云深度合作,将通义大模型应用于智能座舱和营销服务。通过通义万相,腾势推出“AI壁纸”功能;借助通义星尘,实现“心理伴聊”等情感陪伴场景。阿里云Mobile-Agent智能体落地比亚迪座舱,支持复杂语音操作,如查询淘宝物流、订火车票等。该方案基于全视觉解决技术,具有强泛化能力,未来双方将持续拓展更多AI应用。
423 8
|
4月前
|
存储 JSON API
aipy实战:Deepseek-V3、Hunyuan&Qwen分析618平板攻略
Aipy是一款结合LLM与Python的智能工具,用户通过简单指令即可让LLM分析并生成代码,实时解决问题。本次v0.1.28版本新增联网搜索、案例分享等功能,并引入混元和Qwen模型。测评中,三个模型完成“618平板选购攻略”任务表现各异:deepseek-v3界面精美、信息全面但价格有偏差;hunyuan-turbos-latest信息不全但界面简洁;qwen-plus-latest推荐合理但数据失真。总体而言,Aipy在操作友好性和分析界面上显著提升,适合解决实际问题。
|
2天前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
39 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
4月前
|
传感器 存储 人工智能
用通义灵码2.5打造智能倒计时日历:从零开始的Python开发体验
本文记录了使用通义灵码2.5开发倒计时日历工具的全过程,展现了其智能体模式带来的高效协作体验。从项目构思到功能实现,通义灵码不仅提供了代码生成与补全,还通过自主决策分解需求、优化界面样式,并集成MCP工具扩展功能。其记忆能力让开发流程更连贯,显著提升效率。最终成果具备事件管理、天气预报等功能,界面简洁美观。实践证明,通义灵码正从代码补全工具进化为真正的智能开发伙伴。
|
4月前
|
人工智能 自然语言处理 算法
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
321 0
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
|
15天前
|
机器学习/深度学习 运维 数据挖掘
运维告警不是“玄学”:聊聊怎么用机器学习优化事件关联分析
运维告警不是“玄学”:聊聊怎么用机器学习优化事件关联分析
59 3
|
4月前
|
人工智能 智能硬件
Claude 4来了 ,与DeepSeek/Qwen/Hunyuan 谁更强?
Claude 4发布,号称多项突破与超越。本文通过国内首款办公提效AI牛马智能体AiPy,在端午旅游规划场景下测评Claude 4、DeepSeek v3、Qwen-Plus和HunYuan-Turbos的表现。测评任务为制定1500元内端午旅行计划,并生成HTML报告。结果显示,Claude 4表现卓越但价格昂贵,是国产大模型的十倍以上;DeepSeek性价比高,值得称赞。国产大模型虽有亮点,但仍需努力追赶国际水平。测评结果附有各模型生成的报告截图对比。
|
2月前
|
人工智能 BI 语音技术
AR眼镜+AI大模型:颠覆工业设备验收流程的智能革命
本方案结合AR眼镜与AI视觉大模型,打造高效、精准、可追溯的设备验收流程。通过第一视角记录、智能识别、结构化数据生成与智能报表功能,提升验收效率与质量,助力企业实现智能化管理。
|
2月前
|
人工智能 缓存 数据可视化
手把手玩转本地大模型:Ollama+DeepSeek+Dify 零门槛全流程指南
本文提供从零搭建本地AI工作站的完整指南,详解本地化部署大模型的核心优势(数据隐私/离线可用/成本可控),涵盖Ollama安装、DeepSeek-Coder模型部署、Dify可视化操作及API调用实战,助你打造安全高效的私有AI开发环境。

热门文章

最新文章

推荐镜像

更多