SLS数据加工完成Log到Metric的转换

简介: 简介: # 使用数据加工将Log转成Metric ## 云原生时代的可观察性 我们关注应用运行起来后的运行时数据,主要有Log、Trace和Metric 这3大类。 Log是离散的事件,Trace可以认为是带请求追踪的事件,Metric是带统计量的事件。

使用数据加工将Log转成Metric

云原生时代的可观察性

我们关注应用运行起来后的运行时数据,主要有Log、Trace和Metric 这3大类。

Log是离散的事件,Trace可以认为是带请求追踪的事件,Metric是带统计量的事件。

本质上Log、Trace、Metric都是事件,存储上满足事件存储的系统都可以用来存储这3类数据。

阿里云SLS为运行时数据提供了两种存储:Logstore和Metricstore。

  • Logstore:适合存储Log和Trace
  • Metricstore:适合存储Metric

SLS Metricstore针对时序场景做了大量优化,提供PromQL查询能力,支持Prometheus协议。

SLS Metricstore 详细介绍请参考官方链接, PromQL查询语言请参考官方链接

Log转Metric

很多应用的Log数据往往比Metric全面。 经常存在这样的场景: 把Log中的数据转换为Metric。

前面提到,Metric可以认为是特定格式的Log,因此在SLS里可以将Log转换为Metric。

常见的Log转Metric的方法可以有两种:


  • 聚合日志产生指标,类似sql做group by以后产生对应的统计值. 对应SLS ScheduleSQL功能
  • 将日志格式做格式转换,使其符合Metric格式. 对应SLS数据加工e_to_metric场景

本文主要介绍第二种的场景,即日志按行处理转化为Metric的格式

阿里云SLS 数据加工简介


数据加工服务是SLS推出的面向日志行处理的服务,主要为日志的规整、过滤、富化等场景设计

SLS数据加工DSL是专门为日志实时行处理定制的一套语言(类Python)。目前支持200+的行处理函数,可以参考官网文档

本文主要介绍Log转Metric的函数 e_to_metric

函数说明:

函数格式:

e_to_metric(names=None, labels=None, time_field='__time__', time_precision='s', ignore_none_names=True, ignore_none_labels=True)

参数说明

参数说明

参数

类型

是否必填

说明

name

String、StringList、Tuple List

时序数据的Metric名称,可以是单个字符串、多个字符串列表或者元组列表,其值为对应日志字段名称。

  • String:将一个日志字段转换为时序数据的Metric名称。包含一个字符串,例如取值为rt。返回一条包含__name__:rt的时序数据。
  • StringList:将两个日志字段转换为时序数据的Metric名称。包含多个字符串,例如取值为["rt", "qps"]。返回两条时序数据,分别包含__name__:rt__name__:qps
  • Tuple List:将多个日志字段转换为时序数据的Metric名称,并重新命名。包含多个元组,例如取值为 [("rt","max_rt"),("qps", "total_qps")] 。元组的第一个元素是原日志字段,第二个为加工后的时序数据Metric名称字段。返回两条时序数据,分别包含__name__:max_rt__name__:total_qps

labels

String、StringList、Tuple List


时序数据的labels信息字段,可以是单个字符串、多个字符串列表或者元组列表,其值为对应日志字段名称。


说明如下描述中host和app为日志字段名称,hostvalue和appvalue为日志字段的值。

  • String:将一个日志字段转换为时序数据的labels信息。包含一个字符串,例如取值为host。返回一条包含__label__:host#$#hostvalue的时序数据。
  • StringList:将两个日志字段转换为时序数据的labels信息。包含多个字符串,例如取值为["host", "app"]。返回两条时序数据,分别包含__label__:host#$#hostvalue__label__:app#$#appvalue
  • Tuple List:将多个日志字段转换为时序数据的labels信息,并重新命名。包含多个元组,例如取值[("host","hostname"),("app", "appname")] 。元组的第一个元素是原日志字段,第二个为加工后的时序数据labels信息字段。返回两条时序数据,分别包含__label__:hostname#$#hostvalue__label__:appname#$#appvalue

time_field

String

时序数据的时间字段。默认使用日志中__time__字段作为时序数据的时间字段。

time_precision

Int

原始日志数据时间字段的时间单位,支持秒、毫秒、微秒、纳秒。默认按照秒存储。例如time_field="ms"表示原日志数据时间单位为毫秒。

ignore_none_names

Boolean

日志字段不存在时,是否忽略转换为时序数据。

  • True(默认值):忽略,即不转换为时序数据。
  • False:不忽略,不存在时上报错误。

ignore_none_labels

Boolean

日志字段不存在时,是否忽略转换为时序数据。

  • True(默认值):忽略,即不转换为时序数据。
  • False:不忽略,不存在时上报错误。

返回值

返回时序数据

示例1:将m1和m2所在的日志转换为时序数据格式,并将label_a和label_b字段作为新增labels信息字段。

原始日志:

"__time__": "1614253519",
"m1": "1",
"m2": "2",
"label_a": "aa",
"label_b": "bb"

加工规则:e_to_metric(names=('m1', 'm2'), labels=('label_a', 'label_b')

加工结果:

'__name__': 'm1',

'__labels__': 'label_a#$#aa|label_b#$#bb',
  '__time_nano__': '1614253519000000000',

'__value__': '1.0'


'__name__': 'm2',

'__labels__': 'label_a#$#aa|label_b#$#bb',
'__time_nano__': '1614253519000000000',

'__value__': '2.0'

log转Metric实战

首先创建一个store用于接受指标的数据

1、创建store,界面操作


可以使用模拟接入,接入Nginx访问日志

2、log转Metric任务

2.1 先来看一下用于演示的Nginx日志, 我们的目标是将建立Nginx的request_time指标

2.2 点击Nginx日志的logstore,进入查询分析页面后,可以看到“数据加工”的入口,点击进去:

2.3 看到数据加工IDE界面后,在IDE里编写DSL语句实现生成request_time指标

2.4  数据加工实现日志转Metric主要由 e_to_metric 来实现, 函数参数要求如上文《函数说明》,也可参考 链接

我们只需要建立一个指标叫request_time,并且指标取值也是request_time的值,因此加工语句如下:

e_to_metric(names="request_time")

点一下高级预览,看一下效果


可以看到生成了request_time指标。

更多样例

1、还是如上Nginx访问日志,加工语句:

e_to_metric(names=[("remote_user", "remote_user1"), ("request_length", "request_length1")],labels="status")

则加工结果:



2、加上ignore_none_name参数,设置为false,且names不存在,

加工语句:e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status", ignore_none_names=True, ignore_none_labels=False)

则加工结果:

3、加上ignore_none_labels参数,设置为false,且labels不存在,加工语句:

e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status1", ignore_none_labels=False)

加工结果:

4、加上ignore_none_names和ignore_none_labels参数,ignore_none_name=True,ignore_none_labels=False且labels不存在,加工语句:

e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status1",ignore_none_names=True,  ignore_none_labels=False)

加工结果:

5、加上ignore_none_names和ignore_none_labels参数,ignore_none_name=True,ignore_none_labels=True且labels不存在,加工语句:

e_to_metric(names=[("remote_user1", "remote_user2"), ("request_length", "request_length1")],

                            labels="status1",ignore_none_names=True,  ignore_none_labels=True)

加工结果:

6、加上time_precision参数,设置为ms,

加工语句:e_to_metric(names="remote_user", labels="status", time_precision='ms', ignore_none_names=True,  ignore_none_labels=True)

则加工结果:

7、加上time_precision参数,设置为ns,

加工语句:e_to_metric(names="remote_user", labels="status", time_precision='ns', ignore_none_names=True,  ignore_none_labels=True)

则加工结果:

8、加上time_field参数,设置为__tag__:__receive_time__

加工语句:e_to_metric(names="remote_user", labels="status", time_field="__tag__:__receive_time__",time_precision='ns', ignore_none_names=True,  ignore_none_labels=True)

加工结果:

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
24天前
|
Java
使用Java代码打印log日志
使用Java代码打印log日志
77 1
|
25天前
|
Linux Shell
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
78 1
|
29天前
|
SQL 关系型数据库 MySQL
MySQL数据库,可以使用二进制日志(binary log)进行时间点恢复
对于MySQL数据库,可以使用二进制日志(binary log)进行时间点恢复。二进制日志是MySQL中记录所有数据库更改操作的日志文件。要进行时间点恢复,您需要执行以下步骤: 1. 确保MySQL配置文件中启用了二进制日志功能。在配置文件(通常是my.cnf或my.ini)中找到以下行,并确保没有被注释掉: Copy code log_bin = /path/to/binary/log/file 2. 在需要进行恢复的时间点之前创建一个数据库备份。这将作为恢复的基准。 3. 找到您要恢复到的时间点的二进制日志文件和位置。可以通过执行以下命令来查看当前的二进制日志文件和位
|
1天前
|
人工智能 数据可视化 开发工具
Git log 进阶用法(含格式化、以及数据过滤)
Git log 进阶用法(含格式化、以及数据过滤)
|
2天前
|
机器学习/深度学习 前端开发 数据挖掘
工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断(下)
工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断
74 11
|
3天前
|
Java
log4j异常日志过滤规则配置
log4j异常日志过滤规则配置
13 0
|
8天前
工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断2
工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断
15 0
|
8天前
|
机器学习/深度学习 前端开发 数据挖掘
R语言计量经济学:工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断
R语言计量经济学:工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断
39 0
|
16天前
|
运维 安全 Ubuntu
`/var/log/syslog` 和 `/var/log/messages` 日志详解
`/var/log/syslog` 和 `/var/log/messages` 是Linux系统的日志文件,分别在Debian和Red Hat系发行版中记录系统事件和错误。它们包含时间戳、日志级别、PID及消息内容,由`rsyslog`等守护进程管理。常用命令如`tail`和`grep`用于查看和搜索日志。日志级别从低到高包括`debug`到`emerg`,表示不同严重程度的信息。注意保护日志文件的安全,防止未授权访问,并定期使用`logrotate`进行文件轮转以管理磁盘空间。
24 1
|
17天前
|
网络协议 应用服务中间件 Linux
centos7 Nginx Log日志统计分析 常用命令
centos7 Nginx Log日志统计分析 常用命令
33 2