SLS数据加工完成Log到Metric的转换

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 简介: # 使用数据加工将Log转成Metric ## 云原生时代的可观察性 我们关注应用运行起来后的运行时数据,主要有Log、Trace和Metric 这3大类。 Log是离散的事件,Trace可以认为是带请求追踪的事件,Metric是带统计量的事件。

使用数据加工将Log转成Metric

云原生时代的可观察性

我们关注应用运行起来后的运行时数据,主要有Log、Trace和Metric 这3大类。

Log是离散的事件,Trace可以认为是带请求追踪的事件,Metric是带统计量的事件。

本质上Log、Trace、Metric都是事件,存储上满足事件存储的系统都可以用来存储这3类数据。

阿里云SLS为运行时数据提供了两种存储:Logstore和Metricstore。

  • Logstore:适合存储Log和Trace
  • Metricstore:适合存储Metric

SLS Metricstore针对时序场景做了大量优化,提供PromQL查询能力,支持Prometheus协议。

SLS Metricstore 详细介绍请参考官方链接, PromQL查询语言请参考官方链接

Log转Metric

很多应用的Log数据往往比Metric全面。 经常存在这样的场景: 把Log中的数据转换为Metric。

前面提到,Metric可以认为是特定格式的Log,因此在SLS里可以将Log转换为Metric。

常见的Log转Metric的方法可以有两种:


  • 聚合日志产生指标,类似sql做group by以后产生对应的统计值. 对应SLS ScheduleSQL功能
  • 将日志格式做格式转换,使其符合Metric格式. 对应SLS数据加工e_to_metric场景

本文主要介绍第二种的场景,即日志按行处理转化为Metric的格式

阿里云SLS 数据加工简介


数据加工服务是SLS推出的面向日志行处理的服务,主要为日志的规整、过滤、富化等场景设计

SLS数据加工DSL是专门为日志实时行处理定制的一套语言(类Python)。目前支持200+的行处理函数,可以参考官网文档

本文主要介绍Log转Metric的函数 e_to_metric

函数说明:

函数格式:

e_to_metric(names=None, labels=None, time_field='__time__', time_precision='s', ignore_none_names=True, ignore_none_labels=True)

参数说明

参数说明

参数

类型

是否必填

说明

name

String、StringList、Tuple List

时序数据的Metric名称,可以是单个字符串、多个字符串列表或者元组列表,其值为对应日志字段名称。

  • String:将一个日志字段转换为时序数据的Metric名称。包含一个字符串,例如取值为rt。返回一条包含__name__:rt的时序数据。
  • StringList:将两个日志字段转换为时序数据的Metric名称。包含多个字符串,例如取值为["rt", "qps"]。返回两条时序数据,分别包含__name__:rt__name__:qps
  • Tuple List:将多个日志字段转换为时序数据的Metric名称,并重新命名。包含多个元组,例如取值为 [("rt","max_rt"),("qps", "total_qps")] 。元组的第一个元素是原日志字段,第二个为加工后的时序数据Metric名称字段。返回两条时序数据,分别包含__name__:max_rt__name__:total_qps

labels

String、StringList、Tuple List


时序数据的labels信息字段,可以是单个字符串、多个字符串列表或者元组列表,其值为对应日志字段名称。


说明如下描述中host和app为日志字段名称,hostvalue和appvalue为日志字段的值。

  • String:将一个日志字段转换为时序数据的labels信息。包含一个字符串,例如取值为host。返回一条包含__label__:host#$#hostvalue的时序数据。
  • StringList:将两个日志字段转换为时序数据的labels信息。包含多个字符串,例如取值为["host", "app"]。返回两条时序数据,分别包含__label__:host#$#hostvalue__label__:app#$#appvalue
  • Tuple List:将多个日志字段转换为时序数据的labels信息,并重新命名。包含多个元组,例如取值[("host","hostname"),("app", "appname")] 。元组的第一个元素是原日志字段,第二个为加工后的时序数据labels信息字段。返回两条时序数据,分别包含__label__:hostname#$#hostvalue__label__:appname#$#appvalue

time_field

String

时序数据的时间字段。默认使用日志中__time__字段作为时序数据的时间字段。

time_precision

Int

原始日志数据时间字段的时间单位,支持秒、毫秒、微秒、纳秒。默认按照秒存储。例如time_field="ms"表示原日志数据时间单位为毫秒。

ignore_none_names

Boolean

日志字段不存在时,是否忽略转换为时序数据。

  • True(默认值):忽略,即不转换为时序数据。
  • False:不忽略,不存在时上报错误。

ignore_none_labels

Boolean

日志字段不存在时,是否忽略转换为时序数据。

  • True(默认值):忽略,即不转换为时序数据。
  • False:不忽略,不存在时上报错误。

返回值

返回时序数据

示例1:将m1和m2所在的日志转换为时序数据格式,并将label_a和label_b字段作为新增labels信息字段。

原始日志:

"__time__": "1614253519",
"m1": "1",
"m2": "2",
"label_a": "aa",
"label_b": "bb"

加工规则:e_to_metric(names=('m1', 'm2'), labels=('label_a', 'label_b')

加工结果:

'__name__': 'm1',

'__labels__': 'label_a#$#aa|label_b#$#bb',
  '__time_nano__': '1614253519000000000',

'__value__': '1.0'


'__name__': 'm2',

'__labels__': 'label_a#$#aa|label_b#$#bb',
'__time_nano__': '1614253519000000000',

'__value__': '2.0'

log转Metric实战

首先创建一个store用于接受指标的数据

1、创建store,界面操作


可以使用模拟接入,接入Nginx访问日志

2、log转Metric任务

2.1 先来看一下用于演示的Nginx日志, 我们的目标是将建立Nginx的request_time指标

2.2 点击Nginx日志的logstore,进入查询分析页面后,可以看到“数据加工”的入口,点击进去:

2.3 看到数据加工IDE界面后,在IDE里编写DSL语句实现生成request_time指标

2.4  数据加工实现日志转Metric主要由 e_to_metric 来实现, 函数参数要求如上文《函数说明》,也可参考 链接

我们只需要建立一个指标叫request_time,并且指标取值也是request_time的值,因此加工语句如下:

e_to_metric(names="request_time")

点一下高级预览,看一下效果


可以看到生成了request_time指标。

更多样例

1、还是如上Nginx访问日志,加工语句:

e_to_metric(names=[("remote_user", "remote_user1"), ("request_length", "request_length1")],labels="status")

则加工结果:



2、加上ignore_none_name参数,设置为false,且names不存在,

加工语句:e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status", ignore_none_names=True, ignore_none_labels=False)

则加工结果:

3、加上ignore_none_labels参数,设置为false,且labels不存在,加工语句:

e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status1", ignore_none_labels=False)

加工结果:

4、加上ignore_none_names和ignore_none_labels参数,ignore_none_name=True,ignore_none_labels=False且labels不存在,加工语句:

e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status1",ignore_none_names=True,  ignore_none_labels=False)

加工结果:

5、加上ignore_none_names和ignore_none_labels参数,ignore_none_name=True,ignore_none_labels=True且labels不存在,加工语句:

e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status1",ignore_none_names=True,  ignore_none_labels=True)

加工结果:

6、加上time_precision参数,设置为ms,

加工语句:e_to_metric(names="remote_user", labels="status", time_precision='ms', ignore_none_names=True,  ignore_none_labels=True)

则加工结果:

7、加上time_precision参数,设置为ns,

加工语句:e_to_metric(names="remote_user", labels="status", time_precision='ns', ignore_none_names=True,  ignore_none_labels=True)

则加工结果:

8、加上time_field参数,设置为__tag__:__receive_time__

加工语句:e_to_metric(names="remote_user", labels="status", time_field="__tag__:__receive_time__",time_precision='ns', ignore_none_names=True,  ignore_none_labels=True)

加工结果:

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
19天前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
156 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
1月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
244 3
|
15天前
|
存储 Oracle 关系型数据库
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
本文介绍了MySQL InnoDB存储引擎中的数据文件和重做日志文件。数据文件包括`.ibd`和`ibdata`文件,用于存放InnoDB数据和索引。重做日志文件(redo log)确保数据的可靠性和事务的持久性,其大小和路径可由相关参数配置。文章还提供了视频讲解和示例代码。
123 11
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
|
1月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1645 14
|
15天前
|
SQL Oracle 关系型数据库
【赵渝强老师】Oracle的联机重做日志文件与数据写入过程
在Oracle数据库中,联机重做日志文件记录了数据库的变化,用于实例恢复。每个数据库有多组联机重做日志,每组建议至少有两个成员。通过SQL语句可查看日志文件信息。视频讲解和示意图进一步解释了这一过程。
|
1月前
|
数据采集 机器学习/深度学习 存储
使用 Python 清洗日志数据
使用 Python 清洗日志数据
37 2
|
1月前
|
Python
log日志学习
【10月更文挑战第9天】 python处理log打印模块log的使用和介绍
35 0
|
1月前
|
数据可视化
Tensorboard可视化学习笔记(一):如何可视化通过网页查看log日志
关于如何使用TensorBoard进行数据可视化的教程,包括TensorBoard的安装、配置环境变量、将数据写入TensorBoard、启动TensorBoard以及如何通过网页查看日志文件。
213 0
|
1月前
|
存储 分布式计算 NoSQL
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
42 0
|
1月前
|
缓存 Linux 编译器
【C++】CentOS环境搭建-安装log4cplus日志组件包及报错解决方案
通过上述步骤,您应该能够在CentOS环境中成功安装并使用log4cplus日志组件。面对任何安装或使用过程中出现的问题,仔细检查错误信息,对照提供的解决方案进行调整,通常都能找到合适的解决之道。log4cplus的强大功能将为您的项目提供灵活、高效的日志管理方案,助力软件开发与维护。
59 0
下一篇
无影云桌面