Zabbix Python API 应用实战

简介:

    做监控的同学应该知道,公司IDC机房经常有上架、下架、报修和报废的服务器。如果服务器数量很多的时候很容易造成监控遗漏。
    大的互联网公司把监控系统和CMDB(资产管理系统|配置管理数据库系统)集成在一起,当上架一台新机器的时候CMDB里面会记录相关的信息,Zabbix根据CMDB里面信息自动Link相关的模块,添加|删除监控。很多小的公司没有资产管理系统,但作为监控的负责人应该每天知道上架了哪些新的机器,确保能添加到Zabbix监控里面。
    首先给大家说一下脚本思路:
1)通过Nmap工具扫描网段,扫描出已经使用的IP地址。
2)通过Nmap检测已经扫描IP的3389或者22端口是否开放,可以判断那些事windows机器,那些是Linux机器。
3)Linux下面通过ssh + hostname命令找出Linux主机名。
4)Windows下面通过nmblookup -A 命令找出Windows主机名。
5)用Python脚本读扫描结果文件,把主机名写到列表里面。
6)用Zabbix python API 调用已经监控的主机名,写到列表里面。
7)两个列表取交集,用for循环判断哪些主机名没有监控。
8)发邮件通知监控负责人。

    下面我分享一下我写的Python写的脚本,其中scan_machine.sh是我调用的用Shell写的关于Nmap扫描的脚本,scan_hostname.log是Nmap扫描的结果,里面内容是IP 主机名。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
#!/usr/bin/env python
#create by:sfzhang 20140820
#coding=utf-8
import  os,sys
import  json
import  urllib2
import  datetime,time
from  urllib2  import  URLError
nmap_cmd  =  "/shell/machine/scan_machine.sh"
def  runCmd(command):
     global  mail_cmd
     mail_cmd  =  '''mail -s "Report on not monitor Hosts of Zabbix" shifeng_zhang88 < /shell/machine/result/result.txt'''
     return  os.system(command)
runCmd(nmap_cmd)
def  nmap_host():
     hostiplst  =  []
     hostnamelst  =  []
     =  file ( '/shell/machine/result/scan_hostname.log' )
     for  line  in  f.readlines():
         hostip  =  line.split()[ 0 ]
         hostname  =  line.split()[ 1 ]
         hostiplst.append(hostip)
         hostnamelst.append(hostname)
     hostnamelst.sort()
     #print hostiplst
     return  hostnamelst
     f.close()
def  zabbix_host():
     zabbixhostlst =  []
     #based url and required header
     url  =  "http://192.168.161.128/api_jsonrpc.php"
     header  =  { "Content-Type" "application/json" }
     #request json
     data  =  json.dumps(
     {  
     "jsonrpc" "2.0" ,
       "method" "host.get" ,
       "params" :{
           "output" :[ "hostid" , "name" ],
          "filter" :{ "host" :""}
     },    
     #auth id
     "auth" : "Zabbix Auth ID" ,
     "id" 1 ,
     })
     #create request object
     request  =  urllib2.Request(url,data)
     for  key  in  header:    
     request.add_header(key,header[key])
     #get host list
     try :
     result  =  urllib2.urlopen(request)
     except  URLError as e:
     print  "The server could not fulfill the request." ,e.reason
     else :
         reponse  =  json.loads(result.read())
     result.close()
     #print "Number of Hosts:",len(reponse['result'])
     for  host  in  reponse[ 'result' ]:
             #print "Host ID:",host['hostid'],"Host Name:",host['name']
             zbxhosts = host[ 'name' ]
             zabbixhostlst.append(zbxhosts)
         zabbixhostlst.sort()
         return  zabbixhostlst    
def  main():
     nmaphostlst  =  nmap_host()  
     zbxhostlst  =  zabbix_host()  
     diff  =  list ( set (nmaphostlst) ^  set (zbxhostlst))  
     content  =  "\n"
     nomonitorlst  =  [] 
     if  len (diff) ! =  0 :  
         for  host  in  diff:  
             if  host  in  nmaphostlst:  
                 nomonitorlst.append(host)
                 
     else :  
         sys.exit()
     #print zbxhostlst
     string  =  '\n' .join(nomonitorlst)
     =  file ( '/shell/machine/result/result.txt' , 'w' )
     f.write(string)
     f.flush()
     f.close()
     runCmd(mail_cmd)
if  __name__  = =  "__main__" :  
     main()

   把脚本添加到crontab,每台会收到关于那些主机没有添加监控的信息。

wKiom1QWnH2TqA4TAACr-PgcC_U866.jpg     

    总结:

     1)Zabbix API相关信息可以查看官方详细资料,看不懂英文的可以参考下面这篇文档。http://paperplane.ruhoh.com/zabbix/intro-to-zabbix-api/

     2)通过该脚本可以知道那些主机没有添加监控,希望对大家有帮助,如果有更好的解决方法欢迎多多交流。 










本文转自 sfzhang 51CTO博客,原文链接:http://blog.51cto.com/sfzhang88/1552916,如需转载请自行联系原作者

目录
相关文章
|
2天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
21 6
|
3天前
|
数据采集 数据安全/隐私保护 开发者
非阻塞 I/O:异步编程提升 Python 应用速度
非阻塞 I/O:异步编程提升 Python 应用速度
|
2天前
|
设计模式 前端开发 数据库
Python Web开发:Django框架下的全栈开发实战
【10月更文挑战第27天】本文介绍了Django框架在Python Web开发中的应用,涵盖了Django与Flask等框架的比较、项目结构、模型、视图、模板和URL配置等内容,并展示了实际代码示例,帮助读者快速掌握Django全栈开发的核心技术。
66 44
|
3天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
19 4
|
3天前
|
安全 数据库 开发者
Python Web开发:Django框架下的全栈开发实战
【10月更文挑战第26天】本文详细介绍了如何在Django框架下进行全栈开发,包括环境安装与配置、创建项目和应用、定义模型类、运行数据库迁移、创建视图和URL映射、编写模板以及启动开发服务器等步骤,并通过示例代码展示了具体实现过程。
18 2
|
3天前
|
存储 JSON API
淘宝API接口实战:高效获取商品标题、分类及店铺名称
在淘宝API接口实战中,通过以下步骤高效获取商品标题、分类及店铺名称:1. 准备工作:了解淘宝开放平台文档,注册开发者账号,选择开发语言和工具。2. 获取API访问权限:申请相应权限,提供应用场景说明。3. 调用API接口:构建HTTP请求,提供必要参数。4. 解析响应数据:提取JSON数据中的所需信息。5. 数据处理和存储:进一步处理并存储数据。6. 注意事项:遵守使用规范,注意调用频率和数据安全。示例代码使用Python调用淘宝API。
|
2天前
|
网络协议 调度 开发者
Python网络编程:Twisted框架的异步IO处理与实战
【10月更文挑战第27天】本文介绍了Python网络编程中的Twisted框架,重点讲解了其异步IO处理机制。通过反应器模式,Twisted能够在单线程中高效处理多个网络连接。文章提供了两个实战示例:一个简单的Echo服务器和一个HTTP服务器,展示了Twisted的强大功能和灵活性。
6 0
|
jenkins API 持续交付
PYTHON调用JENKINS的API来进行CI
我查到的相关API有两套,我主要用的是python-jenkins。 https://pypi.python.org/pypi/python-jenkins/ 按语法调用即可。。。 import jenkins server = jenkins.
2525 0
|
3天前
|
供应链 数据挖掘 API
电商API接口介绍——sku接口概述
商品SKU(Stock Keeping Unit)接口是电商API接口中的一种,专门用于获取商品的SKU信息。SKU是库存量单位,用于区分同一商品的不同规格、颜色、尺寸等属性。通过商品SKU接口,开发者可以获取商品的SKU列表、SKU属性、库存数量等详细信息。
|
4天前
|
JSON API 数据格式
店铺所有商品列表接口json数据格式示例(API接口)
当然,以下是一个示例的JSON数据格式,用于表示一个店铺所有商品列表的API接口响应