核心特性region split

简介: 核心特性region split

1.split触发时机与策略


前面我们已经知道了,数据写入过程中,需要先写memstore,然后memstore满了以后,flush写入磁盘,形成新的HFile文件。


当HFile文件数量不断累积,Region server就会触发compaction机制,把小文件合并为大的HFIle。


当每次flush完成 或者 compaction完成后,regionSplitPolicy就会判断是否需要进行split。


split触发时机简单来说,就是看一个region里面的最大store是否超过阈值。


当然,hbase支持多种策略来设置这个阈值到底怎么计算,这就是触发策略。


  • 0.94版本前默认的策略是ConstantSizeRegionSplitPolicy,这个阈值时一个固定值。


  • 0.94-2.0版本的默认策略是IncreasingToUpperBoundRegionSplitPolicy。


  • 2.0版本的默认策略是SteppingSplitPolicy。这两种策略设置的阈值不是一个固定值,而是会和region所属表在当前regionserver上的region个数有关。只是在计算公式上稍有差异。


另外,还有比如DisableSplitPolicy、KeyPrefixRegionSplitPolicy,DelimitedKeyPrefixRegionSplitPolicy等策略,就不一一介绍了。


2.split流程


一旦开始region split,那么就会创建两个daughter region。


这时候不会立刻将所有数据写到新的region里面去,而是创建引用文件,叫做Reference files,指向parent region。


reference文件作为一个数据规则文件,在split期间,新的查询会根据这个文件去父region的HStore上查询数据。当经过一次major compaction后,数据迁移到新的region中,reference文件会被删除,表示spilit真正完成。


43.jpg


具体过程如下:


1)regionserver在zookeeper中创建一个新的znode在/hbase/region-in-transition/region-name目录下,状态为SPLITTING


2)master通过watch zk上的region-in-transition目录,得知这个region处于split状态


3)region server在HDFS的parent region目录下创建一个子目录叫做“.splits”


4)region server关闭parent region,强制flush这个region下的cache数据,并且标记这个region为下线状态。这个时候,如果有客户端请求落在这个region上,就会抛出NotServingRegionException。


5)Region server创建新的region在.spllits目录下,我们标记为daughter region A和daughter region B,同时创建必要的数据结构。然后就会创建两个Reference文件,指向parent region的那些存储文件。


6)Region Server在HDFS中创建实际的region目录,并将daughterA和daughter B移动到HBase根目录下,形成两个新的region。


7)Region server会发送put请求给.mete. table,然后把parent region设置为offline的状态,并且给新的region添加信息。


8)region server 打开新的region接受读写请求


9)region server将region A和B的信息添加到.meta.表,可以真正对外提供服务了。


扫尾工作:


1)客户端请求.meta.表,发现新的region信息,就会把本地缓存重新设置


2)region server更新zk上/hbase/region-in-transition/region-name目录下的znode状态,改为SPLIT,然后master通过watch得知这个信息。如果有必要,负载均衡器可以选择将新的region分布到新的region server上。


3)完成split工作后,meta和HDFS还是会保留reference文件到parent region。等到下次compaction时,会完成数据到新region的迁移,然后才会删除reference文件。


3.pre-splitting


当一张表被首次创建时,只会分配一个region给这个表。因此,在刚刚开始时,所有读写请求都会落在这个region所在的region server上,而不管你整个集群有多少个region server。不能充分地利用集群的分布式特性。


主要原因跟split的机制有关,一开始的时候,系统无法判断你到底需要用哪个rowkey进行split。


因此,hbase提供了工具让你能自己解决这个问题,叫做pre-splitting。


你可以在创建表的时候,指定哪些split point将region分成几份。如果切分的好,那么自然就可以一开始就充分利用分布式的特性。但是需要注意,如果切分的不好,存在热点region,那么反而会影响读写性能。


这里也没有一个特别好的原则来说到底pre split多少个region最合适,不过最好的方式,还是以region server数量的倍数(较小的倍数)来创建pre split的region数量,然后让集群本身去做自动的spliting。


4.split的事务性保证


2.0版本后,HBase会使用HLog存储单机事务(DDL\Split\Move等)的中间状态,保证了即使事务过程中出现异常,也能安全地回滚或继续提交。

目录
相关文章
|
IDE 大数据 Java
大数据问题排查系列 - HDFS FileSystem API 的正确打开方式,你 GET 了吗?
大数据问题排查系列 - HDFS FileSystem API 的正确打开方式,你 GET 了吗?
|
Linux Anolis
性能优化特性之:EXT4 Fast Commit
本文介绍了倚天实例上进行IO优化的特性:Fast Commit,并对其优化原理、使用方法进行了详细阐述
|
11月前
|
Cloud Native Devops 虚拟化
Docker和VMWare有什么不同
【10月更文挑战第18天】Docker和VMWare有什么不同
|
8月前
|
网络协议 前端开发 Java
Coolbpf最新特性解读:profiler功能上线,助力性能分析和优化
本文介绍Coolbpf性能分析模块中的profiler功能。
|
9月前
|
弹性计算 运维 监控
云服务诊断功能评测报告
云服务诊断功能评测报告
214 3
云服务诊断功能评测报告
|
缓存 中间件 PHP
Laravel 框架:优雅 PHP Web 开发的典范
【8月更文挑战第31天】
421 0
|
缓存 监控 Java
在Linux中,发现内存可用量很小,接下来怎么办?
在Linux中,发现内存可用量很小,接下来怎么办?
|
存储 监控 安全
Docker技术概论(8):Docker Desktop原生图形化管理(一)
Docker技术概论(8):Docker Desktop原生图形化管理(一)
1934 0
|
运维 Linux Shell
Linux运维:批量处理远程主机
Linux运维:批量处理远程主机
240 0
|
人工智能 智能硬件
如何在一周内摸清一个行业:ChatGPT + 麦肯锡关键词分析法
如何在一周内摸清一个行业:ChatGPT + 麦肯锡关键词分析法
2324 0
如何在一周内摸清一个行业:ChatGPT + 麦肯锡关键词分析法