如何同时兼顾多维分析和快速查询的需求?Kudu来帮忙!彭文华

简介: 如何同时兼顾多维分析和快速查询的需求?Kudu来帮忙!彭文华

这是彭文华的第134篇原创

一般公司的大数据基本都是这个样子:底层是HDFS存储各种文件,上面架设Hive建设数仓,解决多维分析的需要。对于一些明细数据快速查询的需求,Hive其实非常不友好,慢的很。所以一般来说又会把Hive里处理好的明细数据倒一份到HBase里,解决明细数据查询的需求。

这下问题就来了,一套数据存两个地方,且不说浪费存储空间的事情,就单说让两套数据同步,就是个麻烦事。万一没同步了,还会出现两边数据不一样,运营拿着冲突的数据上来诘问的时候我们该咋弄?


Hive+HBase的痛

我们知道Hive是基于HDFS的一种数据仓库工具,做了很多易用性的优化,把复杂的MapReduce简化成了对数据工程师非常友好的SQL。但是玩过HDFS的同学都知道,这是一个文件系统啊。文件系统就意味着要查一条记录得把某个文件打开,然后顺序往下读,这速度可想而知。Hive是直接映射HDFS的文件做成表,那就得按照HDFS的套路来。所以不是Hive不想支持实时查询的功能,实在是臣妾做不到啊!

而且,仍然是由于基于HDFS,Hive想对某条数据进行修改,也就成为不太可能了。所以Hive天然是一个面向历史、擅长批数据处理的数据仓库工具。所以Hive的应用场景其实非常有限。


HBase虽然也是基于HDFS的,但是HBase实质是是一个KV数据库。它在底层设计的时候就做了大量的查询优化设计。比如Trailer、布隆过滤器、三级索引的设置。

这个Trailer的设计很有意思,他是用来找数据用的。里面存储了总偏移量、每个kv的大小、第一个数据块的偏移量和最后一个偏移量。这就可以用来快速寻址,找到数据所在的存储地址。配合索引和布隆过滤器,就能超快速锁定Data Block中的kv值。

所以我们回头看一下,Hive的存储方式,其实就是数据结构中四大存储方式中的顺序存储,而HBase就是另外一种:散列存储,类似于链式存储。这俩天然一个擅长大批量操作,一个擅长快速查询。这玩意的毛病是从骨子里带出来的,这咋解?


Hive+HBase融合!

其实还是有解的。经验丰富的你应该知道这个方法。既然HBase和Hive都是基于HDFS的,只不过HBase的存储结构比较巧妙,那能不能把数据放在HBase的表里,然后Hive引用HBase的表作为外表呢?这样既不影响HBase的快速查询,又能让Hive基于同一个表进行批量数据的操作?这当然可以!

这个解决方案很好的解决了两个问题:

1、数据冗余问题,原来要存两份,现在一份就行了;

2、高时延问题,原来数据到Hbase和到Hive得需要分别跑,现在不需要了;

同时,也顺带解决了两份数据带来的运维复杂、数据不一致等一系列问题,这也就成为了大数据平台的通用架构之一。


但是这毕竟是两个组件融合起来,仍然存在各种乱七八糟的问题。比如上来就会遇到版本兼容的问题,烦死个人

但是这还好解决,不行就换个版本吧。但是你看看上面那个图,Hive的数据源变成HBase了,相当于HBase不仅要承担本身查询的任务,还要面对Hive过来的N多批处理的请求,增加了非常多的压力。每个Hive的MapReduce任务都会启动N个Handler去连接HBase,HBase还不被烦死了。而且这势必又会降低HBase原有的高速查询的效率。

另外,HBase毕竟是列式存储,在表设计的时候,就跟Hive不一样,所以表映射的时候会有非常多的限制。数据仓库工程师会非常不习惯这种转来转去的感觉,让人非常难受。

所以,有没有更好的解决方案呢?


神器出炉!

Cloudera公司发现了这个巨大的问题,发现这是一个打造一个好产品的巨大潜在机会啊!于是在其他人都在研究怎么用HBase和Hive融合的时候,他们就在悄咪咪的搞研发。他们的定位就是“Fast Analytics on Fast Data。一帮牛人搞了多久呢?3年,就出来了这么个玩意。

一个兼具HBase和Hive长处的Kudu!

不过,想要兼具二者的长处,规避二者的短处,可不是那么简单的 事情!因为二者的缺陷是与生俱来的。也就是说,想要规避一个不能快速查询,一个不能批量操作,那就不能基于HDFS和HBase的任何一种数据存储形式,得另起一个。所以Kudu就自己整了一套:

玩数仓或者数据库的同学看到这个就会亲切不少。因为里面很多单词是非常熟悉的,比如table、Undo、Redo等。这些都是从关系型数据库中沿用过来的。因为有这些设计,所以Kudu是能够支持数据的删改操作的。

这里有个小细节,Table下面是Tablet,这其实是Kudu为了适应分布式而专门设计的,一个表会拆成N个tablet,散放在各个节点中。

既然底子类似于关系型数据库,那么与Hive类似的数据批处理肯定就没问题了。

但是查询咋办?

注意看上图最左侧第一行,叫“BloomFile”,第二行是“AdhocIndex”。第一个其实就是布隆过滤器的应用,第二个就是查询索引了。同时,在每个tablet的MetaData里也会布隆过滤器和索引。这样就能快速判断某个数据是否在这个tablet、DiskRowSet中了。查询也是嗷嗷快的。


怎么用好Kudu?

Kudu貌似看上去很好,但是千万不要迷信哈。也有几个不太好的地方:

1、查询不如HBase,官方自己都说,如果要追求快速查询还得用HBase;

2、应对数据更新,Kudu需要额外投入资源,所以装Kudu的机器时不时会抽风;

3、必须要有且走主键,非主键超级吃CPU;

4、设计的时候需要同时考虑更多。


因为没有自增主键,所以建议用类似UUID的解决方案,用雪花算法搞定主键。

设计的时候需要考虑分区策略,存储的时候规避热点存储问题,计算的时候也同样可以规避数据倾斜问题。之前分享过怎么解决数据倾斜,方法其实是一样的:

  • 随机分区:每个区域的数据基本均衡,简单易用,偶尔出现倾斜,但是特征同样也会随机打散。
  • 轮询分区:绝对不会倾斜,但是需要提前预知分成若干份,进行轮询。
  • hash散列:可以针对某个特征进行hash散列,保证相同特征的数据在一个区,但是极容易出现数据倾斜。
  • 范围分区:需要排序,临近的数据会被分在同一个区,可以控制分区数据均匀。


不过Kudu只支持范围、Hash、多级三种分区方式。Kudu很有意思,他支持组合分区。比如这样:

Hash分区的优势在于超高写入吞吐量,预先设置的范围分区可避免 tablet 无限增长的问题;两者结合,那是强强联手,非常有意思。


Kudu毕竟还是一个存储系统,虽然提供了接口供我们使用,但是得用Java写啊!数仓同学是不是要哭了?

别着急!早就有解决方案了。那就是Kudu+Impala,双剑合并。kudu负责数据存储,Impala负责计算和SQL友好,你看,多棒啊~~~

最后用一个简单的架构演进图收尾吧:

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
9月前
|
存储 SQL NoSQL
当流计算邂逅数据湖:Paimon 的前生今世
当流计算邂逅数据湖:Paimon 的前生今世
303 0
|
11天前
|
SQL 物联网 数据处理
"颠覆传统,Hive SQL与Flink激情碰撞!解锁流批一体数据处理新纪元,让数据决策力瞬间爆表,你准备好了吗?"
【8月更文挑战第9天】数据时代,实时性和准确性至关重要。传统上,批处理与流处理各司其职,但Apache Flink打破了这一界限,尤其Flink与Hive SQL的结合,开创了流批一体的数据处理新时代。这不仅简化了数据处理流程,还极大提升了效率和灵活性。例如,通过Flink SQL,可以轻松实现流数据与批数据的融合分析,无需在两者间切换。这种融合不仅降低了技术门槛,还为企业提供了更强大的数据支持,无论是在金融、电商还是物联网领域,都将发挥巨大作用。
32 6
|
11天前
|
消息中间件 数据挖掘 Kafka
揭秘数据洪流中的救世主:Confluent与Flink的实时分析奇迹!
【8月更文挑战第9天】在现代数据处理中,实时数据分析至关重要。Confluent Platform与Apache Flink的组合提供了一套高效的数据流处理方案。Confluent Platform基于Apache Kafka构建,负责数据的收集、传输及管理;而Flink则擅长实时处理这些数据流,进行复杂分析。首先需配置Confluent Platform,包括设置Zookeeper、Kafka brokers及相关服务。
26 1
|
3月前
|
关系型数据库 分布式数据库 数据库
PolarDB闪电助攻,《香肠派对》百亿好友关系实现毫秒级查询
PolarDB分布式版助力《香肠派对》实现百亿好友关系20万QPS的毫秒级查询。
PolarDB闪电助攻,《香肠派对》百亿好友关系实现毫秒级查询
|
3月前
|
关系型数据库 分布式数据库 数据库
PolarDB-X助攻《香肠派对》百亿好友关系实现毫秒级查询
云原生数据库PolarDB分布式版(PolarDB for Xscale,简称PolarDB-X)有极强的线性扩展能力,能够多写多读;它的全局索引能力,是分布式改造的利器,成功解决了传统分布式方案中多维度查询的难题,在《香肠派对》的好友系统上,实现了百亿好友关系20万QPS的毫秒级查询。
PolarDB-X助攻《香肠派对》百亿好友关系实现毫秒级查询
|
3月前
|
存储 并行计算 算法
列式存储的另一面
列存是常见的数据存储技术,说到列存常常就意味着高性能,现代分析型数据库基本都会把列存作为标配, 列存的基本原理是减少硬盘的读取量。一个数据表有多个列,但运算可能只会用到其中少数几列,采用列存时,用不着的列就不必读出来了,而采用行式存储时,则要把所有列都扫描一遍。当取用列只占总列数的小部分时,列存的 IO 时间优势会非常大,就会显得计算速度快了很多。 不过,列存也有另一面,并不是在任何场景下都有优势。
|
存储 消息中间件 SQL
看场景、重实操,实时数仓不是“纸上谈兵”
Hologres产品负责人合一谈谈他眼中的实时数仓!
1990 4
看场景、重实操,实时数仓不是“纸上谈兵”
|
存储 BI 数据处理
聊一聊数据应用中的数据集市
今天我们聊聊什么是数据集市(DM)?什么时候需要数据集市?
聊一聊数据应用中的数据集市
|
SQL 存储 前端开发
告别宽表,用 DQL 成就新一代 BI
告别宽表,用 DQL 成就新一代 BI
107 0
告别宽表,用 DQL 成就新一代 BI
|
数据挖掘 BI
【视频特辑】数据分析师必备!快速制作一张强大好用的大宽表
随着企业数字化进程的逐步推进,在日常经营过程当中会沉淀下越来越多的数据信息。 每当想做数据分析的时候,就会发现想要的指标分散在不同的数据源、数据集、数据表当中。 Quick BI的数据关联功能,可以帮助数据分析师快速将指标进行汇聚,形成一张强大好用的大宽表。 一起来看看Quick BI是如何做到的吧!
231 0
【视频特辑】数据分析师必备!快速制作一张强大好用的大宽表