Kylin 在贝壳的性能挑战和 HBase 优化实践(2)

简介: Kylin 在贝壳的性能挑战和 HBase 优化实践

慢查询治理-队列堆积定位

1)现象

有一天我们发现Kylin HBase RegionServer队列堆积非常严重,RegionServer的P99的响应时间已经达到了10多分钟的级别,大家看右上角是HBase关于队列的监控情况,一些机器的堆积已将近3W。我们当时非常疑惑,因为Kylin和HBase之间RPC的超时时间是10秒,在10秒之后Kylin和HBase的连接都已经断开了,HBase到底处理什么查询,右下角是HBase RegionServer UI页面的截图,在这个截图里我们发现一些查询其实已经执行了快半个小时了,这半个小时是在执行什么呢?

2)解决方案

我们当时的解决方案是去任务堆积的有队列推积的RegionServer上去看日志,通过查询开始时间结束时间做差值,找出查询时间最长的Top10的查询,通过QureyID匹配出Cube和具体的SQL,最终我们发现一般这种查询时间特别长都是因为查询方式的变化与原来Cube设置的Rowkey不相符导致了全表扫描。最终的方案其实查出来之后Kylin的同学会去调整Cube的Rowkey设置,然后重新构建。


这种离线的定位的方式其实不是特别好,一开始我们想基于日志做实时报警,这样能帮助我们更快的发现和定位问题,但是后来想想这也是比较被动的一种方式,这只是发现问题,不能彻底解决这个问题。


我们后来想的一个方案是SQL作执行之前可以为SQL打分,评分过低的就拒绝执行,这个功能还没有实现。有这个想法是因为当我们找到SQL信息后, Kylin的同学是可以看出来查询是不是不合理,是不是跟Rowkey设置不符,我们想以后做这样一个功能,把人为判断的经验程序化,在SQL没有执行之前就把潜在的风险化解掉。


慢查询治理 – 主动防御

慢查询治理还有一个举措是Kylin的主动防御。我们发现有大量的耗时较长的查询会占据请求队列,影响其他查询的响应时间。


解决方案是通过Kafka收集Kylin的日志,经过天眼系统实时清洗后写入Druid,通过Druid做统计分析,如果某个业务方/Cube在一定时间内超过3秒的查询到达一定的阀值,主动防御系统会把这个业务方/Cube的查询超时时间设置为1s,让较慢的查询尽快超时,避免对正常查询的干扰。右边就是我们整个流程的一个架构图,主动防御对慢查询治理有一定的作用,但全表扫描的情况还是没有办法完全避免。


重点指标查询性能保障

1)现象

另外一个举措是对重点指标的查询性能保障。早期HBase集群只有HDD一种存储介质,重点指标和普通指标都存储在HDD上,非常容易受到其他查询和HDD性能的影响,重点指标响应时间无法保障。


2)解决方案

我们的解决方案是利用了HDFS的异构存储,给一部分DataNode插上SSD,将重点Cube的数据存储在SSD上,提升吞吐的同时与普通指标数据做存储隔离,这样就既避免了受到其他查询的影响,也可以通过SSD的性能来提升吞吐。引入SSD只是做了存储的隔离,还可以通过RSGroup做计算隔离,但由于重点指标的请求量占到了集群总请求量的90%以上,单独隔离出几台机器是不足以支撑这么大请求量的,所以最终我们并没有这么做。


最后是我们得出的一些经验,SSD对十万以上扫描量查询性能提升40%左右,对百万以上扫描量性能提升20%左右。


这是我们用SSD做的一些改动,数据存储在SSD是可针对Cube设置的。我们可以指定哪些Cube存在SSD上,构建任务建表时会读取Cube的配置,按照Cube配置来设置HBase表的属性和该表的HDFS路径存储策略。在DistCp拷贝之前也要先读取Cube的配置,如果Cube的配置是ALL_SSD,程序需要设置DistCp的目的路径存储策略为ALL_SSD,设置完成后再进行数据拷贝。


这样做的目的是为了避免Bulkload后数据还需要从HDD移动到SSD,移动数据会带来什么影响呢?我们发现如果不先设置DistCp目的路径存储策略的话,数据会被先写到HDD上,Bulkload后由于表的HDFS存储路径存储策略是ALL_SSD,Hadoop的Mover程序会把数据从HDD移动到SSD,当一个数据块的三个副本都移动到SSD机器上后,RegionServer不能从其缓存该数据块的三台DataNode上读取到数据,这时RegionServer会随机等待几秒钟后去向NameNode获取该数据块最新的DataNode信息,这会导致查询响应时间变长,所以需要在DistCp拷贝数据之前先设置目的路径的存储策略。


JVM GC瓶颈

1)现象

我们遇到的下一个问题就是RegionServer的JVM GC瓶颈。在查询高峰期Kylin HBase JVM Pause报警特别频繁,从这张图里面可以看到有一天已经超过1200个。Kylin对用户的承诺是三秒内查询占比在99.7%,当时已经达到了99.8%,于是我们就想还需要优化哪一块能让3秒内查询占比达到99.9%,这个JVM  Pause明显成为我们需要改进的一个点,大家做JAVA基本都知道JVM怎么去优化呢?


2)解决方案

先可能会想到调整参数,其次就是换一种GC算法,我们采用了后者。之前我们用的是JDK1.8,GC算法是G1,后来我们了解到JDK11推出了一个新的算法叫ZGC。最终,我们把JDK从1.8升级到JDK13,采用ZGC替代了原有的G1。右上角的图是ZGC上线后,这套集群RegionServer 的JVM  Pause的次数几乎为0,右下角的GC时间也是相比之前降低特别多。ZGC有一个设计目标是Max JVM  Pause的时间在几毫秒,这个效果当时看着是比较明显的,左边的图是天眼系统的报警的趋势图,ZGC上线后JVM Pause报警数量明显降低。关于ZGC我本月会发一篇文章介绍ZGC算法和我们做了哪些改动来适配JDK13,这里就不详细介绍了。

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
4月前
|
机器学习/深度学习 分布式计算 Hadoop
一种HBase表数据迁移方法的优化
一种HBase表数据迁移方法的优化
50 0
|
12月前
|
SQL 分布式计算 监控
Kylin 在贝壳的性能挑战和 HBase 优化实践(1)
Kylin 在贝壳的性能挑战和 HBase 优化实践
Kylin 在贝壳的性能挑战和 HBase 优化实践(1)
|
监控 分布式数据库 Hbase
《HBase in Practise 性能、监控和问题排查》电子版地址
HBase in Practise: 性能、监控和问题排查
85 0
《HBase in Practise 性能、监控和问题排查》电子版地址
|
缓存 安全 Java
HBase 优化_3 | 学习笔记
快速学习 HBase 优化_3
132 0
|
存储 缓存 分布式数据库
HBase 优化_2 | 学习笔记
快速学习 HBase 优化_2
98 0
|
存储 负载均衡 分布式数据库
HBase 优化_1 | 学习笔记
快速学习 HBase 优化_1
103 0
|
运维 分布式计算 算法
HBase 操作和性能配置选项
设置 hbase.regionserver.handler.count(在 hbase-site.xml)为用于并发的核心 x 轴。 可选地,将调用队列分成单独的读取和写入队列以用于区分服务。该参数 hbase.ipc.server.callqueue.handler.factor 指定调用队列的数量: 0 意味着单个共享队列。 1 意味着每个处理程序的一个队列。 一个0和1之间的值,按处理程序的数量成比例地分配队列数。例如,0.5 的值在每个处理程序之间共享一个队列。 使用 hbase.ipc.server.callqueue.read.ratio(hbase.ipc.server.call
146 0
|
存储 监控 物联网
解密 云HBase时序引擎OpenTSDB 优化技术
逝者如斯夫,不舍昼夜。                                                       —— 孔子 时间如流水,一去不复返。自古不乏对时间流逝的感慨,而现代已经有很多技术记录流逝的过去。
2306 0
解密 云HBase时序引擎OpenTSDB 优化技术
|
存储 Hbase 分布式数据库
面向海量数据的极致成本优化-云HBase的一体化冷热分离
随着业务的持续发展,业务数据库存储量会持续增长。通常数据量过亿时,就需要考虑选择扩展能力更好的NOSQL数据库如HBase,足够满足大多数业务的存储需求。然而,对于大量存储瓶颈类业务,存储成本依然是系统设计中需要关注的重中之重,本文介绍了一种全新的冷热分离一体化方案,0改造成本实现业务冷热分离
5212 0
面向海量数据的极致成本优化-云HBase的一体化冷热分离
|
4月前
|
Java Shell 分布式数据库
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
84 0