日志服务SLS最佳实践:通过SLS数据加工从VPC flowlog中过滤出跨region CEN流量

简介: 概述背景介绍日志服务联合网络团队一起推出了包括VPC flowlog、CEN flowlog、VBR flowlog等在内的多种网络产品流日志,用于VPC的策略统计、弹性网卡流量统计以及网段间流量统计,帮助您快速、有效地监控和分析网络流日志,发现流量异常根源,实现网络流量的审计告警等功能。虽然客户可...

概述

背景介绍

日志服务联合网络团队一起推出了包括VPC flowlog、CEN flowlog、VBR flowlog等在内的多种网络产品流日志,用于VPC的策略统计、弹性网卡流量统计以及网段间流量统计,帮助您快速、有效地监控和分析网络流日志,发现流量异常根源,实现网络流量的审计告警等功能。

虽然客户可以根据实际情况选择开通 VPC/CEN/VBR flowlog,但是由于CEN和VBR flowlog对所用的产品版本有严格要求,部分客户无法升级到合适版本的情况下,无法开启对应的CEN和VBR flowlog。由于VPC flowlog可以针对ENI/VSwitch/VPC 三个维度来采集,所以VPC flowlog是包含所有ECS通过 CEN 和 VBR 对外访问的所有流量的。针对客户无法直接使用CEN和VBR flowlog的情况,可以通过开启VPC flowlog后,对流日志进行过滤的方式来获得客户所需的 CEN 和 VBR 流量数据。

本文就通过一个客户的实际案例开介绍如何使用在无法直接开启CEN flowlog的情况下,使用SLS的数据加工能力,从VPC flowlog的数据中过滤出客户需要的流量日志出来。该客户由于使用了CEN 1.0版,并经过了大量定开,无法升级到CEN2.0版,所以无法直接开通CEN flowlog。经过研究讨论,可以通过对VPC flowlog数据进行过滤,就能获取客户需要的两个region之间不同网段ECS间相互访问的流量日志

目标读者

无法直接使用CEN和VBR flowlog,但可以开通VPC flowlog的客户、和架构师们。

适用场景

本文介绍的最佳实践适合如下场景:

  • 无法直接开通CEN 和 VBR flowlog

  • 可以开通VPC flowlog

  • 明确知道所需流量过滤规则的场景

方案介绍

方案说明

根据客户的需求,整个方案分为采集、过滤、拉取三个部分。

采集:在VPC 中开启流日志,将日志导入SLS中

过滤:根据客户提供的过滤规则,使用数据加工将日志过滤到一个新的logstore中

拉取:客户通过下载日志的方式将日志拉取到其线下安全平台中分析

架构图

前提条件

  1. 已经创建VPC、vSwitch、ENI

  2. 已经开通SLS

操作步骤

开通流日志

  1. 打开“专有网络”产品控制台,进入“运维与监控”-“流日志”页面,点击“创建流日志”按钮。

  1. 在“创建流日志”页面填写需要创建流日志的源和目标信息后,点击确定后就完成了流日志的创建

  • 流日志来源配置:

资源类型:可为“专有网络”、“交换机”、“弹性网卡”三种网络资源类型创建流日志。

资源实例:根据选择的资源类型选择对应的资源实例

流量类型:“全部流量”表示记录所有的请求流量;“被访问控制允许的流量”表示正确接收的请求流量;“被访问控制拒绝的流量”表示拒绝接收的请求流量

  • 流日志目标存放库配置:

Project和logstore:如果没有创建专门用于存放VPC flowlog的project和logstore的话,可以在本页面进行创建。

  • 勾选“开启流日志分析报表功能”确保可以在SLS中看到采集到的VPC flowlog

  1. 可以在流日志页面看到新增加的流日志采集作业,可以停止和删除该作业。

日志过滤

  1. 登录日志服务控制台,进入上个步骤配置的Project和logstore,可以看到流日志已经发送到该logstore了。

Dingtalk_20230216174720
  1. 在当前project下创建一个新logstore,比如取名叫:vpc-flowlog-vswitch-etl,并开启全文索引。

  2. 在logstore查询页面中,点击数据加工按钮,进入数据加工配置页面,根据客户的需求,编写数据加工语句。需求如下:

  • sourceIP和destIP都属于10.0.0.0/8网段

  • 需要过滤sourceIP是10.200.0.0/16,destIP是10.200.0.0/16

  • 需要过滤sourceIP是10.200.0.0/16,destIP是10.100.0.0/16

  • 需要过滤sourceIP是10.100.0.0/16,destIP是10.200.0.0/16

  • 需要过滤TCP端口(源端口或目的端口)8080和8081

  • 只保留这些字段:dstaddr/dstport/action/bytes/__time__/srcaddr/protocol/packets/srcport

根据如上规则编写的数据加工语句如下:

e_keep(
ip_cidrmatch("10.0.0.0/8", v("srcaddr"))
and ip_cidrmatch("10.0.0.0/8", v("dstaddr"))
)
e_drop(
ip_cidrmatch("10.200.0.0/16", v("srcaddr"))
and ip_cidrmatch("10.200.0.0/16", v("dstaddr"))
)
e_drop(
ip_cidrmatch("10.200.0.0/16", v("srcaddr"))
and ip_cidrmatch("10.100.0.0/16", v("dstaddr"))
)
e_drop(
ip_cidrmatch("10.100.0.0/16", v("srcaddr"))
and ip_cidrmatch("10.200.0.0/16", v("dstaddr"))
)
e_drop(v("protocol") == "1")
e_drop((v("protocol") == "6") and (v("srcport") == "8080" or v("dstport") == "8080"))
e_drop((v("protocol") == "6") and (v("srcport") == "8081" or v("dstport") == "8081"))
e_keep_fields(
"dstaddr",
"dstport",
"action",
"bytes",
"__time__",
"srcaddr",
"protocol",
"packets",
"srcport",
regex=False,
)
Dingtalk_20230216174850
  1. 点击“保存数据加工”按钮,进入创建数据加工作业的页面。选择加工后的数据存储目标,这里选择前面创建的logstore:vpc-flowlog-vswitch-etl,根据实际情况选择加工范围,这里选“所有”。点击确定就完成了数据加工作业的创建。可以根据需要选择是否在随后出现的对话框中“开启监控”。

  1. 在目标logstore中,可以看到客户所需的CEN流日志。

5

拉取日志

日志服务提供多种方法可以拉取日志,包括日志投递、消费、日志下载等方式获取过滤后的日志。本例中,客户使用页面下载的方式将日志下载到本地后使用。

  1. 查询到需要的日志后,点击下载日志按钮,进入下载日志页面。

6

  1. 根据需要选择下载日志的参数,点击确认后,后台会启动日志导出任务。

  1. 任务执行完毕后,就可以点击“下载”按钮下载日志到本地了。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
1月前
|
SQL 存储 监控
使用CloudLens for SLS监控Project资源配额最佳实践
本文主要介绍如何使用CloudLens for SLS中全局错误日志、监控指标做Project 资源配额的水位监控 、超限监控 以及 如何提交资源配额提升申请。
79347 19
使用CloudLens for SLS监控Project资源配额最佳实践
|
9月前
|
监控 安全 BI
使用日志服务SLS进行OSS可观测分析
本场景主要介绍如何使用SLS提供的CloudLens for OSS功能针对对象存储OSS进行可观测分析,包括资源用量、访问分析、安全分析、异常检测等角度。
383 0
|
11月前
|
存储 域名解析 弹性计算
阿里云VPC内网DNS日志正式接入SLS日志审计服务
内网DNS日志(Intranet DNS Log) 记录了指定阿里云uid下所有VPC网络内终端产生的DNS域名解析请求和应答,终端请求的这些域名既包含了配置在PrivateZone上的内网权威域名,也包含了外部公网域名。为了满足用户可以快速、简单实现多账号、多地域场景下内网DNS日志的采集、管理、中心化查询分析等需求,DNS与SLS联合开发,在SLS日志审计应用中发布一键开启内网DNS日志的功能。
阿里云VPC内网DNS日志正式接入SLS日志审计服务
|
11月前
|
SQL 存储 运维
使用CloudLens for OSS构建Bucket资产可观测性实践
本文介绍通过CloudLens for OSS计量日志的自定义查询分析,来构建不同Bucket之间资产趋势可观测性对比分析。
164 0
|
1月前
|
存储 分布式计算 监控
操作审计最佳实践:将阿里云操作日志持续投递到您的 SLS/OSS
操作审计(ActionTrail)帮助您监控并记录阿里云账号的活动,包括通过阿里云控制台、OpenAPI、开发者工具对云上产品和服务的访问和使用行为,记录为操作日志。 操作审计支持所有阿里云账号的免开通服务,默认为所有账号记录并存储近 90 天的日志。但在实际应用中,受法律法规和企业审计标准的要求,...
|
1月前
|
存储 运维 监控
日志审计:多账号下VPC流日志采集与监控方案
本文主要介绍如何基于日志审计进行跨账号的VPC流日志采集与监控。
日志审计:多账号下VPC流日志采集与监控方案
|
1月前
|
数据采集 弹性计算 监控
跨阿里云账号采集日志
本文介绍跨阿里云账号采集日志的操作步骤。
101 0
跨阿里云账号采集日志
|
存储 运维 监控
CloudLens for OSS--数据洞察可观测平台发布
日志服务联合阿里云OSS推出CloudLens for OSS,支持Bucket粒度的统一管理视图,支持资源用量、访问分析、异常检测、安全分析等可视化分析能力,提供场景化运维管理,实现Bucket资产的可观测性。
216 0
|
存储 数据采集 运维
SLS数据加工实现跨Logstore维表富化
跨Logstore维表富化指的是数据加工中通过资源函数(res_log_logstore_pull)从另一个Logstore中获取数据,并对获取到的数据进行富化,精准的过滤出预期数据,便于直观的得到预期信息。
392 0
|
弹性计算 运维 DataWorks
DataWorks数据集成:打通网络如何排查安全组问题?
DataWorks数据集成:打通网络如何排查安全组问题?
198 0
DataWorks数据集成:打通网络如何排查安全组问题?