4大实验项目,深度解析Tag在可观测性领域的经典实践

本文涉及的产品
可观测可视化 Grafana 版,10个用户账号 1个月
云拨测,每月3000次拨测额度
简介: Tag在可观测性领域的经典实践,快来进行深度了解吧

前言

Opentelemetry协议,是CNCF(Cloud Native Computing Foundation-云原生计算基金会)定义的最新一代的可观测规范(目前还在孵化中),该规范定义了可观测性的三大支柱:metrics、trace、log(指标、链路、日志)。但是如果仅仅是将这三支柱的数据收集起来,而不进行关联,那所谓的可观测性与传统的监控工具(APM、日志、zabbix等)又有何区别,难道说仅仅是一套监控工具的集合吗?所以这里引申出一个很重要的观念:TAG(标签),例如前后端打通的triceID,在某种程度上也可以看做是一个tag,将指标链路日志进行初步关联的host也可以看做是一个tag,其他的例如项目、环境、版本号等等都是一个个的tag!总之,通过TAG实现数据的关联,以及更多的自定义的可观测性玩法,就显得尤为重要。观测云的DataFlux目前架构中所有的可观测项均支持tag的设置,理论上tag数量无上限。


举例

生活中常见的现象就是找工作或者hr招聘,招聘往往会有比较具体的要求,例如xx岗位,需要具备编程技能、计算机常识、本科学位、n年工作经验等等,这一个个要求就好比标签,只有满足标签的人才有可能得到这个岗位,那在IT系统里,就可以是,xx服务器上,跑了xx应用,xx数据库,xxnginx,环境是xx环境,负责人是xxx,当出现问题时,如果标签足够多,很快速的就可以知道哪台服务器有问题,具体影响了哪些业务,哪些应用组件,谁在负责相关的组件,这样就可以快速找到专业对口人员进行修复及弥补,从而提升解决问题的效率。


此文将利用观测云的DataFlux从四个示例对tag的可拓展性及可玩性进行试验:

实验一 / 给服务器进行分组

背景:企业内部往往存在多个项目组或者事业部,不同项目组或事业部在做自己的业务开发时,往往会用专属于自己的基础设施,如果从基础设施到应用都接入了DataFlux进行可观测性,那除了通过分工作空间之外,还有什么方式可以进行项目资源的区分吗?当然有,dataflux设计之初就想到了这种情况,默认的datakit的主配置文件中,有一个global_tag的标签,该标签就是从基础设施层面进行标签的设定,该基础设施上的其他组件,例如应用、数据库都会默认带上这个标签。


1 修改datakit-inputs,配置global_tag

$ vim /usr/local/datakit/conf.d/datakit.conf

# 在global_tags 中添加标签,除默认的三个外,还可添加其他标签

$ [global_tags]

$  cluster = ""

$  project = "solution"

$  site = ""

image.pngimage.png

同理,可将所有相关主机的datakit都加上这个标签。


2 DataFlux-查看服务器分组

image.png

实验二 / 修改datakit识别的hostname

背景:datakit会默认采集主机层面的hostname,然后将识别到的hostname作为全局tag,将所有的指标、链路、日志、对象等数据进行关联,但是,在很多企业内部实际环境中,hostname是无规则的字符串,没有实际意义,而又因为hostname可能被用于连接应用或管理数据库等其他作用,企业内部无法评估更改hostname(将hostname变更为可识别的字符串)会带来怎样的隐患,所以不愿意变更hostname,为了避免风险,datakit内置的ENV_HOSTNAME就可以应对这种情况。

  • 此方法生效后,新的hostname所在的主机数据会重新进行上传,原有hostname的主机数据将不再更新。
  • 建议:如有更改hostname需要,最好在初次安装datakit时进行修改。


1 修改datakit-inputs配置[environments]

$ vim /usr/local/datakit/conf.d/datakit.conf

# 在[environments]中修改ENV_HOSTNAME,改成方便识别的hostname

[environments]

 ENV_HOSTNAME = "118.178.57.79"

image.pngimage.png

2 DataFlux-对比更改前后的数据

更改前

image.png

更改后

image.png

实验三 / Nginx日志统计分服务进行数据展示

背景:企业内部的nginx,一般担负着域名转发或者服务转发的作用,往往nginx所对应的域名会将前端请求转发至后端多个不同的子域名或者多个不同端口的服务,也有可能nginx直接会承载着多个域名服务,针对这种情况,统一化的nginx监控根本无法满足,那dataflux是如何解决这种问题的呢?


  • 场景:nginx对外暴露18889跟80端口,分别转发至内网服务器118.178.57.79的8999及18999端口。
  • 需求:分别统计nginx18889及80两个端口对应服务的数据,例如PV、UV、请求错误数量等数据。
  • 前置条件:nginx的80及18889的访问日志已分别配置到不同的目录(或者配置成不同的日志文件名称)

image.png

image.png

1 配置nginx自身指标监控

详细配置参考

image.png

开启nginx.conf自身性能指标统计模块


查看nginx的http_stub_status_module模块是否已打开


(此示例已打开)

image.png

在Nginx.conf中增添nginx_status的location转发


$ cd /etc/nginx  

  //nginx路径根据实际情况而定

$ vim nginx.conf

$  server{

    listen 80;  

    server_name localhost;

    //端口可自定义

 

     location /nginx_status {

         stub_status  on;

         allow 127.0.0.1;

         deny all;

                            }

                         

         }

image.pngimage.png

检查该模块是否已正常开通:

linux环境:curl http://127.0.0.1/nginx_status

会出现如下数据:

image.png

如已开通,可执行 nginx -t查看nginx状态

image.png

接下来执行 nginx -s reload重新加载nginx

Datakit中开启nginx.inputs:


$ cd /usr/local/datakit/conf.d/nginx/

$ cp nginx.conf.sample nginx.conf

$ vim  nginx.conf


#修改如下内容

[[inputs.nginx]]

   url = http://localhost/nginx_status

image.png

保存nginx.conf文件后重启datakit

$ service datakit restart


2 分别配置80及18889服务对应的日志监控

image.png

image.png

image.png

image.png

3 配置自定义视图(通过tag区分域名)

创建步骤参考[创建场景及视图]

https://www.yuque.com/dataflux/bp/sample1#IVN7h


步骤:登录DataFlux—>场景—>新建场景—>新建空白场景—>系统视图(创建NGINX)


重点:

在系统模板上修改nginx视图相关配置

1、进入视图编辑状态,点击修改视图变量,添加视图变量

L::nginx:(distinct(`domainname`)){host='#{host}'}


注释:继承nginx指标中的host,在L(日志)中查询nginx日志中不同的domainname

image.png

image.png

2、修改具体视图的参数


image.pngimage.png

4 DataFlux—分服务数据展示

image.png

image.png

image.png

image.png

同理:可以通过打不同的tag,用以区分不同的project、不同的负责人、不同的业务模块、不同的环境等等等等,tag具体的能力取决于你的想象空间。


实验四 / 通过tag确认服务具体owner进行告警通知

背景:企业内部随着企业业务的发展,微服务、容器被大量使用,服务组件越来越多,相应的开发及运维人员也越来越多,每个人的分工也越来越细,当业务系统或IT系统出现故障,最佳的告警实践就是可以直接指定相关负责人员,从而提高告警闭环的效率,这种方式常用的方式是告警只发送给相关的人员,或者是jira指派工单,那DataFlux是怎么操作的呢?DataFlux中只需要在具体的可观测inputs中添加tag(理论上支持无上限的tag数量),例如在nginx-inputs中添加自定义tag,owner = "xxx",然后在异常检测中将owner设置为变量,异常检测就可以自动识别该字段并发送至钉钉或企业微信群,效果如下:


例如在上述的nginx自定义日志中进行添加:


1 在inputs中添加tag

image.png

2 在inputs中添加tag

image.png

3 触发告警,查看告警事件

image.pngimage.png

目录
相关文章
|
1月前
|
安全 Cloud Native Linux
CMake Install:深度解析与实践(二)
CMake Install:深度解析与实践
44 0
|
1月前
|
Unix 编译器 Linux
CMake Install:深度解析与实践(一)
CMake Install:深度解析与实践
59 0
|
1月前
|
关系型数据库 MySQL Shell
CMake构建Makefile深度解析:从底层原理到复杂项目(三)
CMake构建Makefile深度解析:从底层原理到复杂项目
33 0
|
1月前
|
编译器 vr&ar C++
CMake构建Makefile深度解析:从底层原理到复杂项目(二)
CMake构建Makefile深度解析:从底层原理到复杂项目
36 0
|
30天前
|
编译器 Linux C语言
【CMake install目录解析】CMake 深度解析:实现精准、高效的项目构建与安装
【CMake install目录解析】CMake 深度解析:实现精准、高效的项目构建与安装
45 0
|
1月前
|
存储 安全 编译器
【C++ 17 新功能 std::visit 】深入解析 C++17 中的 std::visit:从原理到实践
【C++ 17 新功能 std::visit 】深入解析 C++17 中的 std::visit:从原理到实践
70 0
|
9天前
|
Java API 数据库
深入解析:使用JPA进行Java对象关系映射的实践与应用
【4月更文挑战第17天】Java Persistence API (JPA) 是Java EE中的ORM规范,简化数据库操作,让开发者以面向对象方式处理数据,提高效率和代码可读性。它定义了Java对象与数据库表的映射,通过@Entity等注解标记实体类,如User类映射到users表。JPA提供持久化上下文和EntityManager,管理对象生命周期,支持Criteria API和JPQL进行数据库查询。同时,JPA包含事务管理功能,保证数据一致性。使用JPA能降低开发复杂性,但需根据项目需求灵活应用,结合框架如Spring Data JPA,进一步提升开发便捷性。
|
30天前
|
监控 Linux 编译器
Linux C++ 定时器任务接口深度解析: 从理论到实践
Linux C++ 定时器任务接口深度解析: 从理论到实践
70 2
|
30天前
|
存储 并行计算 算法
C++动态规划的全面解析:从原理到实践
C++动态规划的全面解析:从原理到实践
95 0
|
1月前
|
设计模式 缓存 Java
单例模式解析:从理论到代码实践
单例模式解析:从理论到代码实践
11 0

推荐镜像

更多