阿里云监控grafana数据源使用说明文档

本文涉及的产品
可观测可视化 Grafana 版,10个用户账号 1个月
云监控,每月短信1000条
简介: 一. grafana安装 如果服务器上没有安装grafana,需要在服务器上安装grafana。 grafana卸载: 1.1 查看grafana安装情况 rpm -qa | grep -i grafana 1.

一. grafana安装

   如果服务器上没有安装grafana,需要在服务器上安装grafana。
   Grafana官方文档: http://docs.grafana.org/guides/getting_started/
  1. grafana卸载:
    1.1 查看grafana安装情况

     rpm -qa | grep -i grafana
    

    1.2 停止运行grafana,删除运行的grafana

     service grafana-server stop
     rpm -e 文件名
    

    1.3 查找之前老版本grafana,并且删除老版本grafana的文件和库

     find / -name grafana
     rm -rf /usr/share/grafana/
    
  2. grafana安装:
    2.1 yum安装 http://docs.grafana.org/installation/rpm/官网推荐方式

     yum install  https://s3-us-west-2.amazonaws.com/grafana-releases/release/grafana-5.3.0-1.x86_64.rpm 
    

    2.2 启动 service grafana-server start

     开机自启 /sbin/chkconfig --add grafana-server
     用户名:admin 密码:admin 端口:3000
     yum安装文件信息
         安装包细节:
             安装二进制文件 /usr/sbin/grafana-server
             将init.d脚本复制到 /etc/init.d/grafana-server
             安装默认文件(环境变量) /etc/sysconfig/grafana-server
             将配置文件复制到 /etc/grafana/grafana.ini
             安装systemd服务(如果systemd可用)名称 grafana-server.service
             默认配置使用日志文件 /var/log/grafana/grafana.log
             默认配置指定sqlite3数据库 /var/lib/grafana/grafana.db
    
         systemd服务文件和init.d脚本都使用位于/etc/sysconfig/grafana-server启动后端时使用的环境变量的文件。在这里,您可以覆盖日志目录,数据目录和其他变量
         默认情况下,Grafana将登录 /var/log/grafana
         默认配置指定位于的sqlite3数据库/var/lib/grafana/grafana.db。请在升级前备份此数据库。您还可以使用MySQL或Postgres作为Grafana数据库,如配置页面中所详述。
         配置文件位于/etc/grafana/grafana.ini
         服务器端图像(png)呈现是一项可选功能,但在共享可视化时非常有用,例如在警报通知中。
             如果图像缺失文本,请确保已安装字体包。
             yum install fontconfig
             yum install freetype*
             yum install urw-fonts
    

二. 安装云监控grafana数据源

请确认Grafana的插件目录位置。插件目录/var/lib/grafana/plugins/安装插件,重启grafana-server。
执行以下命令安装插件,并重启grafana-server。
第一种

cd /var/lib/grafana/plugins/
git clone git@gitlab.alibaba-inc.com:cms/aliyun-cms-grafana.git
service grafana-server restart

第二种:下载metricstore-datasource.zip,上传metricstore-datasource.zip压缩包到指定服务器地址,然后解压

cd /var/lib/grafana/plugins/
unzip metricstore-datasource.zip
rm -rf metricstore-datasource.zip
service grafana-server restart

三. 配置云监控grafana数据源

  1. 进入grafana的数据源配置页面(Data Sources),
  2. 点击Add data source进入配置表单页面,
  3. 填入数据源名称(Name),在数据源类型(Type)下拉列表中选择metricstore。
  4. 然后开始配置Endpoint以及认证信息,Endpoint是所有获取云监控数据的请求地址,根据你所在Endpoint填写,默认为Access key ID和Secret access key填写账号AK,
  5. 填写完成点击Save & Test,如果显示Success Data source is working,说明数据源配置成功,可以开始在grafana中访问阿里云监控的数据了。
    image

四. 使用云监控grafana数据源

image
数据源支持多种grafana原生的数据展示方式,下面主要介绍Graph和Table两种展示方式和Templating功能的使用:
(1)、图表(Graph)方式
image

在dashboard上点击 "+" Create Dashboard时选择Graph,在Panel data source中选择配置的云监控数据源(Data Sources Name),上方会显示配置表单,下面解释表单中各项的意义:
Project:指标的Project,必须选择了Project才能选择Metric,
(支持自定义监控指标:acscustom$uid;
日志监控指标:acslogMonitor$uid,需要手动输入指标),
详细请访问: [预设监控项参考]。
Metric:指标名,必须选择Metric,因为其他各项会依赖Metric选项。
Period:数据点时间间隔,按照所选metric定义的peroid或者peroid的整数倍填写,默认为空,当Period为空时云监控后台会根据选择的时间范围计算一个最合适的Period。由于每次请求后台只返回1000个数据点,所以建议选择时间段较长的时候保持此项为空,避免图表中出现数据断层。
Values:统计方法,比如Average 、Minimum 、Maximum等,此项可以下拉选择一项或者多项,已选项会以标签的方式列在右侧,你可以点击标签上的X删除一个已选项。注意:选择此项必须先选择Metric。
Dimensions:维度,比如instanceId、device等,根据选择的Metric不同会有所不同。Dimensions是有层级关系的,必须先选择上一层级Dimension的值才会显示下一层级Dimension的名称和可选的值,当你点击Dimension的输入框时,会下拉提示设置账号下所属资源的列表。
注意:需要先选择Metric才可以配置Dimensions。
当你配置完成所有配置项的时候,点击表单空白位置就会在图标中出现数据,当然你修改Period、Values、Dimensions任意一项的时候,都会按照你最新的配置重新获取数据。如果你修改了Metric,若新的Metric和旧的Metric各配置项不匹配的时候会清空所有表单中的配置,因为不同Metric可以配置的项目内容可能不同。

说明:图表标题默认为配置Metric的名称;图表各线条的命名规则为:Metric_DimensionsValue,其中Dimensions有几级就显示几级,用""分割,这种组合命名方式方便区分不同线条所代表的意义。

(2)、表格(Table)方式
image

在dashboard上点击 "+" Create Dashboard时选择Table,在Panel data source中选择配置的云监控数据源,上方会显示配置表单,下面解释表单中各项的意义:

Project:同图表(Graph)方式。
Metric:同图表(Graph)方式。
Period:同图表(Graph)方式。
Values:同图表(Graph)方式。
Dimensions:同图表(Graph)方式。

相关实践学习
基于云监控实现的监控系统
通过阿里云云监控功能给非阿里云主机安装监控插件,从而实现对非阿里云主机的各项指标进行监控和管理,在配置报警规则和报警人的情况下,能对特定的场景做出报警反应通知到报警人的手机上。
相关文章
|
28天前
|
Prometheus 运维 监控
智能运维实战:Prometheus与Grafana的监控与告警体系
【10月更文挑战第26天】Prometheus与Grafana是智能运维中的强大组合,前者是开源的系统监控和警报工具,后者是数据可视化平台。Prometheus具备时间序列数据库、多维数据模型、PromQL查询语言等特性,而Grafana支持多数据源、丰富的可视化选项和告警功能。两者结合可实现实时监控、灵活告警和高度定制化的仪表板,广泛应用于服务器、应用和数据库的监控。
149 3
|
27天前
|
Prometheus 运维 监控
智能运维实战:Prometheus与Grafana的监控与告警体系
【10月更文挑战第27天】在智能运维中,Prometheus和Grafana的组合已成为监控和告警体系的事实标准。Prometheus负责数据收集和存储,支持灵活的查询语言PromQL;Grafana提供数据的可视化展示和告警功能。本文介绍如何配置Prometheus监控目标、Grafana数据源及告警规则,帮助运维团队实时监控系统状态,确保稳定性和可靠性。
136 0
|
4月前
|
Prometheus 监控 Cloud Native
自定义grafana_table(数据源Prometheus)
综上所述,自定义 Grafana 表格并将 Prometheus 作为数据源的关键是理解 PromQL 的查询机制、熟悉 Grafana 面板的配置选项,并利用 Grafana 强大的转换和自定义功能使数据展示更为直观和有洞见性。随着对这些工具更深入的了解,您将可以创建出更高级的监控仪表盘,以支持复杂的业务监控需求。
312 1
|
4月前
|
Prometheus 监控 数据可视化
Grafana 插件生态系统:扩展你的监控能力
【8月更文第29天】Grafana 是一个流行的开源平台,用于创建和共享统计数据的仪表板和可视化。除了内置的支持,Grafana 还有一个强大的插件生态系统,允许用户通过安装插件来扩展其功能。本文将介绍一些 Grafana 社区提供的插件,并探讨它们如何增强仪表盘的功能性。
270 1
|
4月前
|
存储 Prometheus 监控
Grafana 与 Prometheus 集成:打造高效监控系统
【8月更文第29天】在现代软件开发和运维领域,监控系统已成为不可或缺的一部分。Prometheus 和 Grafana 作为两个非常流行且互补的开源工具,可以协同工作来构建强大的实时监控解决方案。Prometheus 负责收集和存储时间序列数据,而 Grafana 则提供直观的数据可视化功能。本文将详细介绍如何集成这两个工具,构建一个高效、灵活的监控系统。
447 1
|
4月前
|
Prometheus 监控 Cloud Native
Grafana 入门指南:快速上手监控仪表盘
【8月更文第29天】Grafana 是一款开源的数据可视化和监控工具,它允许用户轻松地创建美观的仪表盘和图表,以便更好地理解和监控数据。无论您是需要监控系统性能指标、应用程序日志还是业务关键指标,Grafana 都能提供灵活而强大的解决方案。本指南将带领您快速上手 Grafana,包括安装、配置以及创建第一个监控面板。
653 1
|
4月前
|
Prometheus Kubernetes 监控
Kubernetes(K8S) 监控 Prometheus + Grafana
Kubernetes(K8S) 监控 Prometheus + Grafana
279 2
|
3月前
|
运维 Kubernetes 监控
Loki+Promtail+Grafana监控K8s日志
综上,Loki+Promtail+Grafana 监控组合对于在 K8s 环境中优化日志管理至关重要,它不仅提供了强大且易于扩展的日志收集与汇总工具,还有可视化这些日志的能力。通过有效地使用这套工具,可以显著地提高对应用的运维监控能力和故障诊断效率。
327 0
|
6月前
|
存储 监控 数据可视化
基于阿里云 OpenAPI 插件,让 Grafana 轻松实现云上数据可视化
本文旨在提供一个指导性的框架,帮助用户了解插件的安装、配置以及探索如何通过 Grafana 内的阿里云 OpenAPI 插件来对云上数据进行可视化和快速验证开发原型,加强数据可视化和云监控能力,助力开发速度。
33543 20
|
5月前
|
监控 数据可视化 关系型数据库
PolarDB产品使用问题之如何使用Grafana采集PolarDB的指标并进行可视化监控
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。