使用数据加工进行logstore日志流转

简介: 介绍如何使用数据加工对logstore数据进行一对一、一对多、多对一地拷贝

数据加工简介

数据加工是阿里云SLS推出的一项Serverless的功能,主要解决日志行实时处理的场景,目前提供了200+的DSL算子。 详细的加工介绍请参考https://help.aliyun.com/document_detail/125384.html

image.png

Logstore日志流转常见的场景

image.png

日志流转案例 - logstore日志字段过滤复制

案例

A部门有一份敏感日志,由于业务需要, B部门需要访问A部门的日志中的部分字段。为了安全起见,A部门可以使用数据加工实现Logstore对拷, 并过滤掉敏感字段,并且使用RAM授权的方式,给B部门授权

解决方案

使用数据加工 一对一拷贝的功能,并且使用DSL语句进行一定字段的过滤
image.png

加工语句范例

e_keep_fields("filed1","field2",regex=False)

日志流转案例 - 多种格式揉杂的logstore,日志拆分

案例

服务A有一份日志,应用程序打的日志格式并不统一。
当有关键词xx的时候,具备格式 x
当有关键词yy的时候,具备格式 y
由于格式差异较大,冗杂在一个logstore里不利于搜索查询; 比如最后需要投递到oss数据湖进行进一步查询分析

解决方案

使用数据加工一对多的分发能力可以解决以上问题
image.png

加工语句范例

e_if(e_match("http_code", "500"), e_output(name="logstore1"))
e_if(e_match("http_code", "200"), e_output(name="logstore2"))
e_drop()

日志流转案例 - 跨Region复制

案例

公司的业务在各个Region都有部署,查询logstore的时候,需要到不同Project下进行查询,给开发运维带来不便。
使用数据加工将logstore 跨Region写出到中心化的logstore

解决方案

使用数据加工跨Region传输的能力,进行多对一的logstore复制
image.png

加工语句范例

加工语句直接为空,配置时设定好目标logstore即可

小结

使用数据加工对logstore进行数据流转,具备以下几点能力(可根据业务场景进行任意组合)

  1. 支持流转时数据处理(转化、过滤、富化等,200+DSL函数)
  2. 支持一对一、一对多、多对一进行流转
  3. 支持同一个账号、跨账号的场景
  4. 支持同Region、跨Region的场景
  5. 支持一次性 数据服务, 也支持流式持续复制

参考

  1. sls数据加工 http://help.aliyun.com/document_detail/125384.html
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
4月前
|
SQL 关系型数据库 MySQL
我使用flinkcdc的sql形式进行全量同步,4张表,有两张表数据没进去,看日志,id怎么是null呢?
我使用flinkcdc的sql形式进行全量同步,4张表,有两张表数据没进去,看日志,id怎么是null呢?
116 40
|
7月前
|
关系型数据库 物联网 PostgreSQL
沉浸式学习PostgreSQL|PolarDB 11: 物联网(IoT)、监控系统、应用日志、用户行为记录等场景 - 时序数据高吞吐存取分析
物联网场景, 通常有大量的传感器(例如水质监控、气象监测、新能源汽车上的大量传感器)不断探测最新数据并上报到数据库. 监控系统, 通常也会有采集程序不断的读取被监控指标(例如CPU、网络数据包转发、磁盘的IOPS和BW占用情况、内存的使用率等等), 同时将监控数据上报到数据库. 应用日志、用户行为日志, 也就有同样的特征, 不断产生并上报到数据库. 以上数据具有时序特征, 对数据库的关键能力要求如下: 数据高速写入 高速按时间区间读取和分析, 目的是发现异常, 分析规律. 尽量节省存储空间
599 1
|
4月前
|
SQL 关系型数据库 MySQL
⑩⑥ 【MySQL】详解 触发器TRIGGER,协助 确保数据的完整性,日志记录,数据校验等操作。
⑩⑥ 【MySQL】详解 触发器TRIGGER,协助 确保数据的完整性,日志记录,数据校验等操作。
37 0
|
22小时前
|
存储 数据库 流计算
Flink CDC为什么我几张表十来条数据就产生了那么大日志?
Flink CDC为什么我几张表十来条数据就产生了那么大日志?
108 0
|
5月前
|
存储 数据采集 监控
从存储统一到数据融合,SLS在可观测场景的思考和行动
介绍SLS在可观测数据融合分析的一系列技术升级,融合Trace、全栈监控、Continuous Profiling、移动端监控等功能,帮助大家更快速地构筑全栈、自动化的观测能力。
127602 52
|
6月前
|
存储 JSON 监控
日志分析:内网监控系统数据与ELK堆栈
日志分析一直是信息技术领域中至关重要的一项任务。随着互联网的不断发展,组织和企业积累了大量的数据,而其中很大一部分是日志数据。这些日志数据包含了系统的运行状态、事件发生记录以及性能指标,为了更好地理解和管理这些数据,ELK堆栈(Elasticsearch、Logstash和Kibana)成为了一种非常强大的工具。本文将探讨如何使用ELK堆栈进行内网监控系统数据的分析,同时提供一些代码示例来演示其功能和用法。
246 0
|
7月前
|
运维 监控 安全
使用日志数据的方式
使用日志数据的方式
42 0
|
7月前
|
人工智能 运维 监控
在日常开发工作中,日志数据该如何利用?
在日常开发工作中,日志数据是一个宝贵的资源,它可以提供关于应用程序运行状态、错误报告、性能指标和用户行为等方面的重要信息。正确地利用和分析日志数据可以帮助开发人员更好地理解应用程序的运行情况,快速定位和解决问题,改进应用程序的性能,并为业务决策提供有力支持。尤其是在现代科技发展的背景下,日志数据作为一种重要的信息资源,对于运维工作具有极大的价值。然而,如何充分利用日志数据,并将其应用于运维和开发工作中,仍然是许多企业和运维和开发人员关注的问题。那么本文就来分享一下在日常开发中关于日志数据的利用方面的探讨。
127 1
在日常开发工作中,日志数据该如何利用?
|
7月前
|
存储 人工智能 运维
日常工作中,你对于日志数据都是如何利用的?
近期阿里云宣布日志服务 SLS 内核迎来全新升级(https://developer.aliyun.com/topic/sls_pay_by_ingested_data1?spm=a2c6h.13066369.question.3.7f77533dUZ1xiM),通过运维领域模型加持,全链路提升智能分析能力,以更稳定、更智能、更高效、更普惠的平台全方面帮助企业加速拥抱云原生和AI;目前我公司日志服务的使用场景,以及公司自研的日志系统。
76 1
|
8月前
Python-初识正则表达式-指定匹配简单的日志数据
Python-初识正则表达式-指定匹配简单的日志数据
74 0

热门文章

最新文章