Ganglia分组监控

简介:
 官方文档:http://sourceforge.net/apps/trac/ganglia/wiki/ganglia_quick_start
 行文之前,表达一下小郁闷。Ganglia官方把分组监控的帮助文档放到了Quick Start Guide,而不是Configuration,让我一番好找。。。
 
  Ganglia的分组监控,实施起来其实很简单,官方文档已经给出了示例。
  总结起来,实施分组监控,有下面几个关键点:
  一是多播和单播。分组监控最好用单播方式,文档也给出了单播模式的配置方式。
  二是send_metadata_interval设置的间隔时间,官方推荐30秒。
 三 、分组监控,要同时修改gmetad.conf和gmond.conf。gmetad.conf中的分组配置非常简单,不必细说。
  四、分组的标识是gmond.conf配置文件中的cluster name值和port值,同一分组中的机器的这两个值都必须一致,不同组的机器,这两个值不同。
    cluster name的值要与gmetad.conf中的相应条目保持一致;port值的配置需要在udp_send_channel、udp_recv_channel和tcp_accept_channel三个部分同时设定,注间端口不要冲突。
 
   gmetad.conf,只修改了data_source,其它部分保持原状:

 
 
  1. data_source "Internal" 10 192.168.9.53:8649 
  2. data_source "Tangshan" 10 10.64.131:8650 10.10.64.132:8650 
  3. data_source "Jiaxing" 10  10.10.19.170:8653 10.10.19.94:8653
   解释一下,每个集群中都有很多服务器,但我们不需要把集群中的每台服务器都写在data_source条目里,因为,虽然在理论上,Ganglia服务器端要到每个节点上去获取监控信息,但实际上不必如此;集群内的每台机器都会保留其它机器的信息,服务器端只需要连接集群内的任意一台机器,就可以整个集群内所有节点的监控信息。
   在Tangshan和Jiaxing两个集群的配置中,我写了两台服务器,是一个冗余设计。Ganglia服务器端默认去第一台服务器获取信息,如果这台服务器因为某些原因而没有被获取到,服务器端会自动到第二台服务器上获取监控信息。
 
    gmond.conf,以Tangshan集群为例,修改下列部分,其它保持默认:

 
 
  1. globals { 
  2.   daemonize = yes 
  3.   setuid = yes 
  4.   user = nobody 
  5.   debug_level = 0 
  6.   max_udp_msg_len = 1472 
  7.   mute = no 
  8.   deaf = no 
  9.   allow_extra_data = yes 
  10.   host_dmax = 0 /*secs */ 
  11.   cleanup_threshold = 300 /*secs */ 
  12.   gexec = no 
  13.   send_metadata_interval = 30 /*secs */ 
  14.  
  15. cluster { 
  16.   name = "Tangshan" 
  17.   owner = "hdfs" 
  18.   latlong = "unspecified" 
  19.   url = "unspecified" 
  20.  
  21. host { 
  22.   location = "unspecified" 
  23.  
  24. udp_send_channel { 
  25.   mcast_join = 239.2.11.71 
  26.   port = 8650 
  27.   ttl = 1 
  28.  
  29.  
  30. udp_recv_channel { 
  31.   mcast_join = 239.2.11.71 
  32.   port = 8650 
  33.   bind = 239.2.11.71 
  34.  
  35. tcp_accept_channel { 
  36.   port = 8650    
  37.   acl { 
  38.   default = "deny" 
  39.   access { 
  40.   ip = 192.168.9.45 
  41.   mask = 32 
  42.   action = "allow" 
  43.   } 
  44.  
  45.   access { 
  46.   ip = 10.10.64.0 
  47.   mask = 24 
  48.   action = "allow" 
  49.   } 
  50.   } 
  其它分组,只需要修改cluster name,以及port值就可以了!要添加分组,也很简单。
  监控截图:

本文转自 li_qinshan 51CTO博客,原文链接:http://blog.51cto.com/share/623967
相关文章
|
关系型数据库 MySQL Docker
Mac Docker 安装MySQL
Mac Docker 安装MySQL
334 1
|
12月前
|
数据采集 机器学习/深度学习 算法
大数据中数据清洗
【10月更文挑战第19天】
806 2
|
运维 Cloud Native Devops
云原生技术:构建弹性、高效和可扩展的现代应用
在当今数字化时代,企业面临着日益复杂的市场需求和技术挑战。为了满足这些需求,许多企业转向了云原生技术。云原生是一种以云计算为基础的架构和方法论,旨在构建弹性、高效和可扩展的现代应用程序。本文将深入探讨云原生技术的核心概念、优势以及实施过程中的关键步骤,帮助读者更好地理解和应用这一前沿技术。
226 6
|
关系型数据库 MySQL Nacos
nacos启动报错 load derby-schema.sql error
这篇文章描述了作者在使用Nacos时遇到的启动错误,错误提示为加载derby-schema.sql失败,作者通过将数据库从Derby更换为MySQL解决了问题。
nacos启动报错 load derby-schema.sql error
|
数据采集 机器学习/深度学习 数据处理
数据科学家的秘密武器:Pandas与NumPy高级应用实战指南
【7月更文挑战第14天】Pandas与NumPy在数据科学中扮演关键角色。Pandas的DataFrame和Series提供高效数据处理,如数据清洗、转换,而NumPy则以ndarray为基础进行数值计算和矩阵操作。两者结合,从数据预处理到数值分析,形成强大工具组合。示例展示了填充缺失值、类型转换、矩阵乘法、标准化等操作,体现其在实际项目中的协同效用。掌握这两者,能提升数据科学家的效能和分析深度。**
176 0
|
SQL 关系型数据库 数据库
Python执行PostgreSQL数据库查询语句,并打印查询结果
本文介绍了如何使用Python连接和查询PostgreSQL数据库。首先,确保安装了`psycopg2`库,然后创建数据库连接函数。接着,展示如何编写SQL查询并执行,例如从`employees`表中选取所有记录。此外,还讨论了处理查询结果、格式化输出和异常处理的方法。最后,提到了参数化查询和事务处理以增强安全性及确保数据一致性。
Python执行PostgreSQL数据库查询语句,并打印查询结果
|
Java Spring 开发框架
Spring Boot中的分页与排序实现
Spring Boot中的分页与排序实现
|
数据采集 存储 NoSQL
爬虫在金融领域的应用:股票数据收集
本文探讨了网络爬虫在金融领域的应用,特别是在收集股票价格数据方面的实践。文章介绍了使用Scrapy框架和代理IP技术来构建爬虫,以应对反爬策略和提高数据采集效率。通过安装Scrapy和PyMongo,创建Scrapy项目,配置代理中间件,以及编写爬虫代码,实现了从Yahoo Finance抓取股票信息并存储至MongoDB。这种方法能有效助力市场分析和投资决策,提升数据采集的效率与质量。
831 0
爬虫在金融领域的应用:股票数据收集
|
小程序 测试技术 开发者
微信小程序体验版(测试环境)和线上版(生产环境)发布
微信小程序体验版(测试环境)和线上版(生产环境)发布
2360 0