日志服务新功能发布(2)--弹性伸缩(Merge/Split)

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 在之前的文章[《日志服务(原SLS)新功能发布(1)--支持保序写入和消费》](https://yq.aliyun.com/articles/5581)中,我们提到了Shard支持Key映射的特性,通过这个特性能够支持对序有需求的应用场景。今天我们给大家介绍一个在削峰填谷或流量突增情况下的功能:弹性

在之前的文章《日志服务(原SLS)新功能发布(1)--支持保序写入和消费》中,我们提到了Shard支持Key映射的特性,通过这个特性能够支持对序有需求的应用场景。今天我们给大家介绍一个在削峰填谷或流量突增情况下的功能:弹性伸缩。在生产中我们往往会面临峰值和低值的情况,也会遇到因业务层映射不均衡,导致某一个分区(shard)有非常大流量的场景,弹性伸缩(Merge/Split)就是为此设计的利器。

使用弹性伸缩的应用场景

场景1(视频类):根据峰值、底值弹性扩容,控制成本

用户A是一个视频类网站,晚8点-22点是一天的高峰,会产生大量的点击和访问日志。小A使用日志服务一个logstore进行点击日志收集与消费。

  • 在白天时使用一个Shard(Shard0)分区(写5MB/S、读10MB/S)
  • 当晚间高峰时对该分区进行分裂(Split),分区变为2个分区Shard1,Shard2服务能力(写10MB/S,读20MB/S)
  • 当高峰期过后,通过合并(Merge)将两个分区调整一个分区的服务能力(Shard3),以控制成本

screenshot

场景2(日志保序处理):将不同实例映射到不同分区,调整分区处理能力

用户B是一位程序员,通过日志服务logstore采集数据库节点日志。小B管理的数据库有大有小,大的每分钟产生1MB/S 数据,小的也就0.5 KB。由于数据库日志是需要保序处理的,因此小B通过Hash方式将各数据库映射到唯一的Shard上,在消费时保证保序列。

  • 根据映射规则,DB1-DB3被 hash到 shard1上,DB4-5被映射到Shard2,相安无事
  • 有一天数据库实例DB2, DB3流量突然产生的变化,突破了Shard1处理能力(写5MB/S,读10MB/S)
  • 小B通过分析,决定把DB2,DB3进行拆分,于是根据映射Hash方式调整了Shard1,变成2个新的Shard(Shard3, Shard4),Shard3 服务DB1,DB3, Shard4 服务DB2,流量终于均衡了

screenshot

值得一提的是,伸缩操作都是ms级完成,并且过程是对用户服务是没有任何影响。

关于弹性伸缩(Merge/Split)详细说明

分区是什么

logstore下分为若干个分区,每个分区由两个md5组成的左闭右开的区间组成,每个区间的范围不会相互覆盖,并且所有的区间的范围合并起来就是md5的整个取值范围。logstore的日志必定保存在某一个分区上。

screenshot

以图为例,为了简化说明,这里假设md5的取值范围是00 到ff。这个logstore共有4个分区,范围分别是[00,40),[40,80),[80,C0),[C0,ff)。当写入日志时,用户指定一个md5的key是5f,那么这个请求会落在第1号分区上;如果用户指定md5是8c,那么该请求的数据会落到第2号shard上。
分区的状态有两种,一种是readwrite,可以读写;另一种是readonly,只能读数据,不能写数据。
分区的范围如何划分。创建logstore时,指定分区个数,会自动平均划分整个md5的范围。之后可以通过分裂和合并操作来扩容和缩容分区个数。

logstore需要多少个分区

根据logstore实际的流量,每个分区能够处理5M/s的写数据,和10M/s的读数据。根据流量计算出来需要多少个分区。

当写入的API持续报错403或者500错误时,通过logstore云监控查看流量,判断是否需要增加分区。

当流量变小时,为了节约企业成本,可以通过合并操作减少分区。

分裂和合并操作

分裂操作是把一个readwrite的分区分裂成两个readwrite的分区,同时自己变成readonly的分区。分裂操作是扩容logstore流量的手段。

screenshot

以图为例,1号分区原来的范围是[40,80),指定以60为分界点,把整个范围分成了两份[40,60),[60,80),形成两个新的分区4号分区和5号分区。1号分区变成红色的readonly状态。 在分裂之前写到1号分区上的数据仍然留在1号分区上可供读取,分裂完成后,1号分区不再接收数据,落到40到80之间的数据会选择性的落到4号分区或者5号分区,比如5f这个md5,会写入到4号分区上。

合并操作和分裂操作相反,是把两个相邻的readwrite的分区合并成一个readwrite分区,同时原来的两个分区变成readonly状态。

如何进行分裂与合并

  • 通过API或SDK:SplitMerge
  • 通过管理控制台

弹性伸缩对上下游是否有影响

  • 对上游没有任何影响,透明
  • 对下游消费者而言需要感知Shard数目变化,我们推荐使用我们提供Storm Spout,Spark Stream Library或Client Library(Java、Python等用户),Client Library会根据消费实例数目与Shard数目做负载均衡,过程不丢不重数据
相关文章
|
1月前
|
存储 分布式计算 NoSQL
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
42 0
|
3月前
|
XML Java Maven
Spring5入门到实战------16、Spring5新功能 --整合日志框架(Log4j2)
这篇文章是Spring5框架的入门到实战教程,介绍了Spring5的新功能——整合日志框架Log4j2,包括Spring5对日志框架的通用封装、如何在项目中引入Log4j2、编写Log4j2的XML配置文件,并通过测试类展示了如何使用Log4j2进行日志记录。
Spring5入门到实战------16、Spring5新功能 --整合日志框架(Log4j2)
|
5月前
|
Java Spring 容器
Spring5系列学习文章分享---第六篇(框架新功能系列+整合日志+ @Nullable注解 + JUnit5整合)
Spring5系列学习文章分享---第六篇(框架新功能系列+整合日志+ @Nullable注解 + JUnit5整合)
38 0
|
6月前
|
存储 监控 分布式数据库
Algorithms_LSM树(Log-Structured Merge Tree)
Algorithms_LSM树(Log-Structured Merge Tree)
140 0
|
运维 监控 UED
阿里云EMAS远程日志发布新功能(支持移动端设备主动上报日志)
使用阿里云EMAS远程日志最新推出的主动上报日志服务,由移动端提供主动上报接口,通过代码逻辑控制是否主动上报设备日志,问题出现的同时获取设备日志,极大提升特殊场景的日志获取效率,提升问题排查体验和用户满意度。
679 0
阿里云EMAS远程日志发布新功能(支持移动端设备主动上报日志)
|
SQL 监控 关系型数据库
新功能:阿里云RDS SQL执行日志 - 实时分析监控上线
阿里云关系数据库RDS(MySQL版本)的SQL执行日志已经与日志服务打通,提供实时的SQL执行分析功能,并提供内置可深钻的报表、支持自定义审计规则、异常报警、报表订阅与生态对接能力等。
7480 0
|
分布式计算 监控 Shell
新功能:日志服务IPython/Jupyter Notebook扩展发布
日志服务发布IPython/Jupyter Notebook扩展,可以轻松地使用Python对海量数据进行深度加工(ETL)、交互式分析(通过SQL、DataFrame)、机器学习与可视化等。
4126 0
|
运维 监控 大数据
阿里云CDN实时日志服务正式发布 数据驱动 实时决策
12月26日,阿里云CDN实时日志服务举办线上直播发布会,全网首次深度解读阿里云CDN大数据系统技术演进,产品应用场景与业务实操。阿里云CDN实时日志服务可以将CDN采集的实时日志,在小于60秒的时间进行实时、交互式分析和报表呈现,为监控、报警、渠道分析、运营分析提供实时、可靠的数据参考。
3082 0
|
SQL 机器学习/深度学习 监控
阿里云日志服务(SLS)SQL案例中心发布
阿里云日志服务(SLS)提供大规模日志实时查询与分析能力(LogSearch/Analytics),支持完整SQL92标准(提供restful 和 jdbc两种协议),除基本聚合功能外,支持完整的SQL计算,并支持外部数据源联合查询(Join)、机器学习、模式分析等函数。
3047 0
|
监控
日志服务(SLS)数据加工功能发布
日志服务用户,您好! 针对日志生命周期内存在的各种数据规整、分发、富化、清洗场景需求,阿里云日志服务(SLS)新推出了“数据加工”功能。 推荐在日志服务上进行数据规整、加工或联合其它数据源做分析的数据工程师使用。
7239 0
下一篇
无影云桌面