HBase 和 Cassandra的浅谈

简介: HBase 和Cassandra 数据库对比

一:简介

关于hbase和cassandra的探讨,主要从多个方面来说,从最基本的一步步往深入的说,从最基本的部署运维,到支持特性,使用功能以及各自的优势;

先从比较宏观的角度分析,HBase是基于Google的bigtable的论文实现的数据库,cap理论中更倾向于强调c(副本数据一致性)和p(分区容错性)。而Cassandra是号称dynamo 加上 bigtable(数据模型)的实现,cap中强调a(可用性) 和 p。而且底层都是使用lsm-tree 来做存储引擎的核心数据结构;

HBase基本上就是bigtable的开源实现,对标的bigtable的chubby(分布式锁服务)HBase有对应的zookeeper,HBase用regionserver管理region里的数据,实际上的数据副本容错的机制是交付给底层的分布式文件系统hdfs,类比bigtable的gfs。Cassandra在架构上更多借鉴了dynamo,一种完全的区中心对等的分布式数据库,她的每个节点维护一份元信息,每一个节点在集群中的身份完全一样。

二:部署运维

单纯的就部署和运维hbase以及Cassandra来说,部署hbase前,需要部署的组件有zookeeper,hdfs,然后才是hbase。对应的Cassandra就比较简单很多,编译完成一个jar包,单台服务器启动一个Cassandra进程即可。

在部署hbase的时候,可能需要规划好,哪些机器跑hmaser,rs,zk,hdfs的相关进程等, 还有可能为了集群的性能,还要预先规划好多少个rs。自己人工去部署这么一个hbase集群还是比较麻烦的,更别提自己维护。

Cassandra部署的时候比较简单,一个tar包搞定,由于cassandra数据落本地盘,需要人为的配置一些参数比如是否需要虚拟节点(vnode)以及多少vnode;需要基于业务的场景选择特定的key的放置策略(partitioner),这个放置策略的选择以及一些参数的配置需要一定的门槛。

简单总结下:部署运维的话,hbase依赖组件多,部署麻烦一点,但是相关资料很多,降低了难度;cassandra部署依赖少,但是配置参数多,相关资料较少。

特别是使用云HBase完全避免了部署造成的各种麻烦,比手工部署运维任何大数据数据库都方便太多。

三.特性对比

3.1.特性概述

HBase的社区文章里面有介绍hbase的特性点,翻译过来有如下的几个点:

1.强一致性的读写:HBase不是一个最终一致性的存储。

2.自动sharding:HBase的table在集群种被分布在各个region,region可以做自动切分。

3.regionserver的failover;

4.Hadoop/HDFS的集成;

5.MapReduce:支持大数据的并行处理;

6.JAVA Client 以及Thrift/RESR API 访问;

7.Block Cache 以及Bloom filter;

8.操作管理。

就上述HBase的特性,C*也有相应的自己的特性:

1.C*借鉴Dynamo的架构思想,把自己叫做一个最终一致性的系统,但是从[这篇文章](http://www.allthingsdistributed.com/2008/12/eventually_consistent.html)可以看出,如果使用至少是QUORUM 读写,还算是一个强一致的系统。

2.C*的sharding方式:一致性hash,有2种:(1)人为配置好initial_token;2.使用vnode,集群初始化以及节点bootstrap的时候会计算token,基于这些token做数据sharding。

3.可以容忍:replicator_number - (read/write level sufficient nodes)个节点挂了,比如3个副本,读写级别QUORUM(sufficient nodes是2),能容忍1节点挂;

4.支持MapReduce;

5.Thrift、CQL访问;

6.大数据处理的bloom filter 必备;

7.自己有jmx等常见管理,且datastax 公司有提供ops center;

从上述特性来看,各个数据库各有千秋,但是有各自的适合场景,如果业务对数据一致性要求比较苛刻,那么HBase可能更合适,毕竟C 还是存在一定的问题,比如删除数据可能复现;C推荐放置策略用Random以及Murmur3等方式,这样把key打散的很随机,以此做节点负载均衡,这样做scan业务自己的需求数据,可能数据库要全集群都访问,当然可以使用OrderPreserving 和 ByteOrdered可以不用全集群都访问,可是负载不是很均匀,HBase这点却支持的不错;就易用性来说,Cassandra做的还是不错的,在数据库内部提供cql,一种类sql的语句。HBase还是主要JAVA API/Thrift的接口支持,但是后续HBase这方面应该会提高,前段时间的HBase 2017 Asia 阿里也介绍了sql on HBase。

后续在易用性这一块HBase应该是越来越好,会弥补上在易用性这一块的欠缺。试想下,如果Nosql都支持大部分的SQL的功能和语法,那是多完美的事情。

3.2.特性对比

本小结就 HBase 和 C*在部分相关特性上进行细一步的分析对比,大概对比的部分选择为:一致性;sharding方式;用户使用方式;数据复制;

3.2.1 一致性:

一般的一致性在这里是指副本数据的一致性,我们常用的是3副本用来做冗余。HBase的话主要是依赖底层的HDFS来支持副本冗余,一次写入被regionserver收到以后,发送给底层的HDFS,而HDFS会对应的给这个数据在整个文件系统里面写多份;这里是多份副本全部写完成才会返回。读数据的话,在底层HDFS的处理是读主要的这份数据就可以,因为多份数据都是一样的(正常情况)。

C在建表的时候会指定表的副本数(常见3副本),一次数据写入,会基于当前表的副本数以及节点的snitch策略来找到需要写的数据节点,发出多份请求(3份),然后基于传递的写入级别等待对应的响应数即可,比如A,B,C三个副本,QUORUM级别写入,可能存在的情况是,A,B成功C写入失败(无论是网络还是节点跪了),那么这个时候3个副本实际上是不一致的。但是这里对于 C 来说,她能忍。而且如果你读的级别是QUORUM可以读到最新的数据,但是如果你用ONE级别去读数据,那么存在读到老数据的风险,但是C 存在这种情况(当然这里先不考虑C 内部的机制自己修回副本数据)。

C *由于不能保证副本一致性,自己提出了几种方式来做弥补:1.读修复;2.Hinted-Handoff;3.Anti-entropy repair ;但是各种机制的引入也不是很完美的解决问题,此外还相应的会引入一些问题,比如使用1的话,那些读不到的数据存在一直数据不一致的风险;使用3的方式去进行全量/增量数据对比,会消耗很多物理资源,影响在线服务的请求,这是在线服务不能忍受的。

这种情况下来看,HBase的读写以及数据一致性模型是比较简单的。简单就是美,这对具体的业务场景进行适配也是很nice的一面,如果一个数据库的模型过于复杂,业务方拿来用也需要很高的门槛。

2.2.2 shadring 方式:

HBase 的各个regionserver 在最初负责的region,是可以在最初的建表时候,可以做预分配,也可以让hbase自己做这件事情,那么每个regionserver就会负责相应的region的数据的读写等。对于出现热点region的情况的话,hbase自己支持region的split操作,将热点region一分为二。

C* 不支持所谓的热点数据spli region的功能,那么对于这种情况的话,她做了一个预先设置,输入的数据做hash打散,也就是我们知道的一致性hash,她内部支持4种hash策略,Murmur3,Random,OrderPreserving等,其中,前2种是做了随机的hash,OrderPreserving 是类似字典序的方式,最初无论是使用vnode的方式还是initial_tokne的方式人为设置节点token,来一个请求,计算随机hash可以把key比较随机打散到集群中的某个节点,通过snitch 和 keyspace 副本方式找到落得节点信息,因为前面的随机hash可以人为是比较随机的,那么这实际上可以理解为一种负载均衡。但是如果是OrderPreserving 这种方式,实际上就会有问题;出现热点也没办法;

而且我们知道随机hash如果要做scan,实际上是很蛋疼的,基本上所有节点都要操作。字典序可以避免操作所有的数据节点,从这点看,HBase还是占点优势。

2.2.3 用户使用方式

HBase现在提供给用户主要是JAVA/THrift/REST的接口,大概的操作也就是CRUD操作;这些使用还是不是具有亲和性。比如我现在要往表“table”里面写一条数据,rowkey是“test” 列是“cn1” "cn2",value是“value1”, "value2"那么我需要进行下面的操作:

    Configuration conf = HBaseConfiguration.create();

    HTable htable = new HTable( conf, "table");    

    Put put = new Put(Bytes.toBytes("test"));

    put.add(Bytes.toBytes("cn1"), Bytes.toBytes("qual1"), 

        Bytes.toBytes("value1"));

    put.add(Bytes.toBytes("cn2"), Bytes.toBytes("qua2"), 

        Bytes.toBytes("value2"));

    table.put(put);

但是对于C 而言,支持2种方式,1.THrift;2.CQL;thrift我们就不讨论了,主要介绍CQL,这是一种类sql的语言,主要用于操作C,那么通样写一条数据cql是:

INSERT INTO xxx.table (cn1, cn2) VALUES (value1, value2);

此外C* 支持多种索引,特别是有一种新的索引,sasi index支持prefix,contains等操作;

不过HBase也有支持sql的组件且也在往这边发展也不是太大问题;

2.2.4 数据复制

一般数据复制,有全量数据复制和增量数据复制2个情况,主要是为了集群的高可用做铺垫,全量复制的时候,有的使用copytble的方式,这边比较简单,但是因为是mr做批量读取写入(我们之前就是用这种方式导Cassandra的数据),但是会比较耗时,因为每次请求一个网络来回;也有基于snapshot做复制的方式,这种方式会好点;增量复制的话,使用的是复制Hlog的方式,这是一种异步的复制方式,在zk记录checkpoint,复制完log以后修改checkpoint的问位置。

C 的数据复制,也与2种方案,但是都是需要时在Network的拓扑配置下,同cluster的不同dc环境下的操作,全量复制是一种叫做rebuild的方式,直接拖数据的stream,类似C 做节点启动bootstrap的过程,C* 的增量复制 提供了2种方式:EACH_QUORUM,LOCAL_QUORUM 前者是同步写主备,后者是写本地,返回client,远端是否成功不care;对于这个而言的话,异步存在丢数据的风险,同步在跨region以及并发量大的情况下,请求失败率会很高。但是,上面的方式是需要部署在同clsuter下面的不同dc,不同cluster没有解决方案。此外对于同步和异步方案之间没有一种折中的方式,毕竟有的场景对性能要求高,同步复制影响线上写成功的概率,异步复制会丢数据。但是阿里HBase在这方面去做了一个同步异步并存的方式,同步异步共存复制。

四.各自优势

通过上述 的描述以及各自的功能特性的对比,我们可以得到HBase 和 C 对比,2种产品各有千秋,其中HBase对数据一致性要求更高,C相应的强调可用性。且现阶段C 的接口比较有亲和性,但是HBase 和 Hadoop系统天然的无缝对接,这是C 还有点欠缺的。C *也使用了各自方式去弥补欠缺,但是实际上数据一致性上做的还是和这种强一致的系统差把火,而HBase在可用性上所做的工作实际上个人觉得可以做的更好,亲和性以及易用性这些事情实际上HBase也在做工作。

由于篇幅限制,还有一些别的内容没有写进来,接下来会一步步补齐的。接下来会就Compaction策略的对比,索引实现的对比进行分析。

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
4月前
|
存储 NoSQL 大数据
大数据存储:HBase与Cassandra的对比
【7月更文挑战第16天】HBase和Cassandra作为两种流行的分布式NoSQL数据库,在数据模型、一致性模型、数据分布、查询语言和性能等方面各有千秋。HBase适用于需要强一致性和与Hadoop生态系统集成的场景,如大规模数据处理和分析。而Cassandra则更适合需要高可用性和灵活查询能力的场景,如分布式计算、云计算和大数据应用等。在实际应用中,选择哪种数据库取决于具体的需求和场景。希望本文的对比分析能够帮助读者更好地理解这两种数据库,并做出明智的选择。
|
存储 SQL 分布式计算
HBase和Cassandra的分布式架构深度对比
HBase和Cassandra几乎都是一个时候出现的,都是在2010年成为Apache的顶级项目,不过如果我们细品其内部机制,我们会发现其实两者是完全不同的架构风格。HBASE起源于Google BigTable,几乎遵从了BigTable论文的大多数架构设计。Cassandra则是采纳了BigTable的数据模型,同时吸收了Amazon Dynamo的分布式设计。因此从存储结构模型的微观上看,HBASE和Cassandra在单点存储数据的机理是类似的,但是从分布式架构的宏观上看,两者则大相径庭。
HBase和Cassandra的分布式架构深度对比
|
存储 SQL 分布式计算
MongoDB、Cassandra 和 HBase 三种 NoSQL 数据库比较
Hadoop 获得了许多大数据应用的信誉,但实际情况是,NoSQL数据库是一直处于更加广泛部署和更广泛的发展中的技术。尽管选择 Hadoop 作为应用存储,相对来说更直接简单。但是,具体采用什么样的 NoSQL 数据库是个值得思考的问题,毕竟,还有超过100种的 NoSQL 数据库。
3245 0
MongoDB、Cassandra 和 HBase 三种 NoSQL 数据库比较
|
存储 SQL 分布式计算
HBase 与 Cassandra 架构对比分析的经验分享
HBase 与 Cassandra 架构对比分析的经验分享
|
NoSQL 分布式数据库 Hbase
|
算法 NoSQL 分布式数据库
下一篇
无影云桌面