HBase Client API 简析

简介:

昨天在飞机上的2个小时看了一遍HBaseClient API,有几点心得:

1.Put小记录时最好关闭autoFlush,并合理设置WriterBuffer

因为每次Put都要进行一次RPC调用+WAL(关闭对写入提升非常大)+Server端处理,如果对于大批量小数据写入的话RPCRTT消耗的时间就会成为写入的损耗点,因此可以通过本地缓冲批量提交的方式;默认的WriteBuffer大小是2MB,当autoFlush关闭时,客户端每次put都会写入到一个ArrayList内,每10次检查一次,当size超过WriteBuffer size时则进行一次flushCommit,会将WBPut按照RS进行分组,每个RS进行一次RPC调用处理;

当提交到Server端后,如果发生异常,则会将WB中已经写入的Put删除,保留提交失败的进行异常处理;

不过WB的大小需要合理设置,因为占用本地和RS的内存.

本地内存占用很好估计,而服务端的内存最大消耗则是:hbase.client.write.buffer * hbase.regionserver.handler.count * number ofregion server

2.Scannerbatch/cache设置:

Scan具体的处理流程如下图:

022351370.png

Caching的设置主要影响RSnext的调用(可以理解成面向“行”的batch),而batch则是RSRegionScanner每次nextInternal获取的keyvalue数(可以理解成面向“列”的batch);

因此具体SCAN调用RPC次数由两个参数共同决定=cells总数/caching*min(batch,cells/row));

那这里scannernext(n)其实和MYSQL JDBC里的fetch类似,其实是在客户端loop模拟的,而不是真的在server端进行batch fetch,其实这里的scanmysql 里的cursor是非常类似的,因此理解了一个理解另外一个就是水到渠成了.

不过这里也有WB同样的问题就是内存消耗,以及网络传输,处理完毕时及时关闭.

3.HConnection的处理:

简称HC,都是由sharedHCManager产生,而一个HC是存储在HCManagerHBASE_INSTANCESMAP类型里,也就是说同一个Client+Conf是共享HC的,这样有个好处就是首先共享了 ZK连接,其实就是在split/merge时只对一个HC进行metadata refreshOK.

缺点就是这些连接会一直保持到客户端进程退出,会导致ZK连接超maxClientCnxns异常.

4.Coprocessor

类似对比MySQLtriggerprocedure.稍候再详细介绍

5.Counter

这个计数器非常好用,不过用HBase做计数compared to redis是不是略重了:P

6.RowLock

这个应该是被禁用掉的东西,RS杀手啊...可以把rpc handler hold住lease.period...

7.管理API

Split/Compact 运维利器:)


本文转自MIKE老毕 51CTO博客,原文链接:http://blog.51cto.com/boylook/1316037,如需转载请自行联系原作者

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
7月前
|
Java Shell 分布式数据库
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
162 0
|
存储 分布式计算 Hadoop
分布式数据库HBase的常用操作的对应的API编程接口
HBase是一个分布式数据库系统,基于Google的BigTable和Apache Hadoop的HDFS构建。它提供了一个高性能、可扩展的数据库平台,适用于大规模的数据存储和处理。在阿里云开发者社区中,很多开发者都会使用HBase进行数据存储和处理。本文将介绍HBase的常用操作及其对应的API编程接口。
306 0
|
4月前
|
存储 安全 API
【Azure API 管理】在APIM中使用客户端证书验证API的请求,但是一直提示错误"No client certificate received."
【Azure API 管理】在APIM中使用客户端证书验证API的请求,但是一直提示错误"No client certificate received."
|
6月前
|
Java 大数据 API
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
155 0
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
|
7月前
|
Java 分布式数据库 API
HBase java API
HBase java API
50 0
|
7月前
|
存储 NoSQL 分布式数据库
分布式NoSQL列存储数据库Hbase Java API(四)
分布式NoSQL列存储数据库Hbase Java API(四)
71 0
|
7月前
|
存储 NoSQL 分布式数据库
分布式NoSQL列存储数据库Hbase Java API(三)
分布式NoSQL列存储数据库Hbase Java API(三)
65 0
|
7月前
|
Java 分布式数据库 API
|
Java API 数据安全/隐私保护
Elasticsearch Java API Client 开发
本场景主要介绍如何使用 Elasticsearch Java API Client 进行开发,实现常用的 CRUD 操作。
|
存储 分布式计算 NoSQL
分布式数据库HBase的基本概念和架构之基本架构的Client
HBase是一个分布式数据库系统,基于Google的Bigtable和Apache Hadoop的HDFS构建而成。它是一个分布式数据库的NoSQL数据库,主要用于存储和处理海量数据。HBase的核心特性包括高可用性、高性能和高伸缩性。在阿里云开发者社区中,我们将介绍HBase的基本概念和架构,以及它的基本架构Client。
515 1