Apaceh Hudi实时湖仓解决方案 统一的流批存储抽象

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
对象存储 OSS,20GB 3个月
对象存储 OSS,内容安全 1000次 1年
简介: ——陈玉兆阿里巴巴技术专家Apache Hudi PMC memberApache Calcite PMC member

一、LakeHouse演进

image.png

数仓产品形态已经非常成熟2012年之前,BI报表是最主要的私有化部署数仓产品2012年,Google 提出 BigQuery概念,引爆大数据分析的潮流,其主打特色是 Serverless 架构,同时能够提供非常好的分析性能。

2013年,Amazon云厂商收购了Redshift做数仓产品,目前也是他们最核心的数仓产品形态,主打特色为弹性与智能化分析2014 Snowflake 数仓问世,将资源的扩展性做到极致,存储层能够按对象存储很方便地进行扩容,并将计算层存储层解耦,实现了存储计算分离架构足够的弹性,是一款为云而生的数仓产品。

从是上述演变可见,数仓的演变路线整体是从on frame产品形态逐渐地往 on cloud存储计算分离的产品形态演变。

大数据在分析场景一直与数仓存在交集2000 年左右Hadoop时代主要解决大数据问题被称为一代数据库产品。它主要面向搜索以及社交场景得益于社交媒体的蓬勃发展,数据的时效性用户画像的分析各种 BI 分析的需求逐渐出现

2014Spark 计算框架解决Hadoop界限性的问题,面向的 data science或数据分析的场景,颇具前瞻性目前 Spark batch 分析领域依然是主流以及事实标准。

随着Uber公司的发展,打车场景下乘客订单之间存在很多状态的变更,尤其是小时级别以内的状态变更数据的打宽以及数据的实时/近实时变更场景非常多,在这些场景下如何解决增量的消息处理,如何提供高效率的状态变更如何做增量数据的处理以及高效率的更新等需求不断增加

2016年,Uber推出了Apache Hudi初代的数据产品的原型。紧接着在2017 Databricks公司推出了Delta Lake Netflix 公司也推出了Iceberg

渐渐地我们发现,面向大数据的分析场景与原先的商业化数仓产品的迭代路线越来越靠近,产品边界越来越模糊。数仓的数据体量越来越大,且上云之后对资源的智能化弹性要求也越来越高。大数据随着数据场景的丰富度以及数据体量的增加,分析型需求越来越丰富底层对分析的产品形态存储形态也有了越来越多丰富的诉求。核心对时效性底层存储的事务要求越来越高。

最终,DataBricks公司提出了Lake House的概念,将大数据的产品海量数据的特性与warehouse的廉价存储的特性结合在一起,解决了海量数据的分析机器学习诉求。

Lakehouse引入湖格式之后,对事务的要求越来越贴近于传统数据库场景尤其是对事务丰富度的支持对更新的支持可以预见未来 3 5 年随着数据湖产品的成熟, Lake House事务以及Hudi验会逐渐 MySQL 数据库产品靠拢,这也是一代数据湖产品的一次更新与迭代。

image.png

Lake House架构最上层执行引擎层,包含执行层优化器层local cache 。往下连接到事务层提供5个模块的核心组件

① 事务管理transaction manager):由组件来管理表的事务,比如块表隔离、异步 tableservice MVCC 的事务并发控制。

② 高效率的索引将索引做成单独的组件面对不同的执行引擎会提供不同形式的 index 实现比如主键索引二级索引Data Skipping的多模索引

③ Metadata一部分Metadata可以理解为 index 本身的存储数据其次Metadata还会保留模块化的内容,比如max-min 的信息辅助 Data Skipping当前文件视图的文件列表某些场景下做索引加速会存储bloom filter 信息等;Metadata还包含事务层比如事务的状态当前活跃的事务视图集合,辅助事务的管理。

④ Table Service :它是Hudi区别于 Delta Lake Iceberg 的特色。能够将小文件合并数据的清理或 transaction rollback 做成 MVCC 形式的异步的 service 在写流程里定期维护数据集,实现自动化治理的状态,这也是Hudi设计的核心。后续我们会将table service 做成独立的 meta server 来维护与管理,以实现更高效的文件布局的优化与资源的协调。

⑤ TableFormat streaming batch 融合到TableFormat ,抽象出micropartition 概念,将文件按照一定的关系划分为不同的micropartition ,并micropartition 级别对外暴露copy on write 以及 message queue的抽象Hudi是目前三个流行的湖格式产品里唯一有文件 layout 布局的产品,另外两个产品均只有一层完全展平的文件结构,只能依metadata 来维护。这也是Hudi更适合流批统一存储的原因。

Lakehouse架构的最下层为存储层,可以对接HDFSS3GoogleCloud 上的对象存储ABS 存储或他云厂商的对象存储。

整体来看,Lakehouse 与数据库的架构越来越接近,相较于一代的数据库产品,Lakehouse计算层可以使用多种计算引擎,效率更高;其次在事务层提供了比 Hive 更加丰富的语义比如ACID 支持、对更新的支持、 plugable 索引支持以及Meta Service支持,都是 Hive 所不具备的。

二、Apache Hudi架构

image.png

Hudi云原生数仓架构如上图所示。

上游提供非常丰富的数据源摄入方式可以通过 Binlog的方式streaming 地写入数据库的数据,也可以通过 buckload 的方式将库表里的数据以非常高效的方式转化为Hudi的湖表格式。此外, log 数据来自 Kafka 或消息队列的数据也能提供友好的支持。

总结来看,Hudi支持的数据类型有两种,分别为 log 数据数据库的 CDCchangelog ;支持的数据形态也包含两种,分别是历史的全量数据以及 streaming 的增量数据。Hudi主打近实时,可通过 streaming 导入的方式将数据摄入的时效性降至分钟级别。

Hudi在中间的计算层支持也非常丰富。 针对OLAP产品,对于 Presto Spark云厂商的 Redshift云厂商的流产品都做了非常深度的集成。因此,分析端有较多的产品选择,比如DorisStarRocks等,用户可根据自己的不同需求比如查询场景性能成本等自由选择相应的产品。

计算层能够支持 SparkFlink 以及 Hive 。比如流分析或增量消费Hudi上的数据或 streaming 地消费流的数据,可以选择 Spark streamingFlink,实现一个表视图能够暴露两种形态HiveSpark batch引擎高效做传统的离线任务也可以实现Kafka架构的streaming 语义,达到分钟级的实时数据消费,做实时的 BI 场景可以Hudi表,做轻量的加工聚合,导入到下游的 ADS 层再对接分析引擎,可以在数据的时效性上有数量级的提升可以将基于 Hive T+ 1 场景提升到分钟级同时在分析端通过丰富的分析引擎的支持,也能够得到很好的查询效率。目前比较主流的场景streaming 结合的场景,比如数据的实时摄入端到端的数据实时加工或近实时加工。

对比 Hive 的架构,优势主要体现在数据的灵活性上。不仅支持batch高效处理,也支持增量处理Hudi格式的开放性所体现的优势。

ACID事务主要体现在文件格式上高效率更新。Hudi框架可以直接将数据库的 changelogCDC Flink 输出的changelog 写到Hudi表里,可以实时地以行级别的粒度处理 insertupdatedelete对比 Hive 的更新方式,它无需 override 整个 partition而是以近实时、分钟 streaming 的方式将变更导Hudi表里

另外,Hudi正在研发增量的 changelog feedHudi会输出类似于数据库 changelog 的方式,只要定义好 primary key 即记录数据的变更操作,并以同样的changelog语义暴露给下游的reader 做增量的消费与处理。

这也表明,Lakehouse架构的确与数据库越来越贴近。不仅能够对数据库Binlog 的实时摄入做增量处理表格式会暴露类似于数据库的changelog 提供给下游 reader 同时提供了增量的中间层的数据消费与数据加工。

Hudi最底层是云原生的架构,因此各个主流云厂商的对象存储或开源的对象存储的加速层会主动适配表格式。

HudiAmazon EMR已经积累了相当数量的用户,国内的阿里云华为云都会湖产品陆续推出。目前整个湖的生态与产品形态正处于快速蓬勃的迭代阶段达到完全成熟的状态大约还3-5年的时间。

image.png

Hudi云原生架构提供类 DB 事务层查询引擎层提供非常丰富的支持能够适配 SparkFlinkPrestoStarRocks主流的 batch引擎流引擎分析引擎等。平台提供的 service 包括 catalogMetadatastreaming/batch,能够对不同场景暴露不同的 reader/writer 视图,reader包括 updateinsert小文件治理writer端会暴露快照视图基于时间旅行的增量视图streaming 消费视图等。

事务层包含一些核心组件,其中Table Format表格式的基础功能,比如 scheme evolution 统计信息的Data Skipping等。此外,Hudi将数据的清理数据的 compaction 小文件合并文件布局的动态优化等封装自动化形式。

同时Hudi的事务项还提供丰富的 plugable 索引机制,比如基于 Spark ,可能会用 bloomfilter或无状态的 index ,其缺点为受bloomfilter 影响,streaming摄入性能会性能会出现毛刺;比如Flink是基于 state 做了 KV 的索引机制,支持高效率的 update 以及高效率主键索引的点查,对比 bloomfilter 的索引,它的写入更稳定但同时会有 index 的存储开销;比如bucket index ,它保留了 KV  index 的稳定性,同时也有不错的数据写入性能,但缺点没有 parttaion的更新能力。

并发控制的组件包括 writer 之间的乐观并发控制writer table service 之间的 MVCC 的事务控制,后续也会对MOR做无锁的并发写入机制,将lock做成 plugable 提供丰富的 lock 实现,比如会适配amazonDynamoDB 或基于文件系统的锁,同时也提供接口给用户做定制化的 log 实现。

后续还将实现Lake Cache包括文件的 cache基于轻量的表语义的 cache 来加速查询性能。Metaserver功能目前正在推进中,会将 type service 的调度统计信息做成类似于 Hive metastore 的组件,统一进行管理维护。写入端查询端都能统一对接到 Metaserver上做查询的优化。

Hudi部,为了保存 metadata 会做kv存储MetadataHudi内置的表,存储层KV 抽象,能够保证较好查效率。因此我们对Metadata 表的 format 直接复用了 HFile因为 HFile提供了不错的行存抽象,行存内部会提供主键的稀疏索引,能够加速 kv的查询效率单个 key HFile查询大约只需50ms

Hudi云原生架构的最底层是物理存储层,包括对象存储HDFS 等。

Hudi与另外两个 format 的演化区别在于,另两个 format 更加注重本身的抽象以及 read/writer 抽象Hudi更注重的是整个Lakehouse事务平台层的抽象涉及丰富的场景支持对事务层的各种组件、元数据的各种组件plugable 索引的各种支持,并持续朝着数据库产品的形态迭代。

image.png

在三个format中,Hudi率先提出 copy onwritemerge on read 概念Copy on write主要为查询端的查询性能优化而做的文件视图merge on read主要适配较高的数据新鲜度较大吞吐的实时摄入场景。因此写入与读取之间会有 trade off 可能会牺牲一部分的写入吞吐来达到比较高的产品性能,比如 copy on write可能会牺牲一部分查询性能,达到比较高的数据摄入

Copy on write 思路为:每次对 micropartition 做更新时,会将老的数据复制一份,append 上新增的数据,merge 在一起成为新的版本,存在一定程度的写放大。但由于 copy onrightbucket 大小可控,micropartition 的文件不会无限增大,因此写放大可控micropartition的默认大小通常为120M暴露给 reader 快照视图新的版本,如上图 V2 版本。做 Snapshot 查询只会针对 V2版本进行查询,多次写入会产生多个版本,预留版本数可配置。

Mergeon on Read的思路为:以追加的形式做更新,会追加行存的抽象micropartition数据写入时不会再生成新版本。 Compaction 时,会将老版本+追加的数据生成一个新版本因此,Mergeon on Read查询性能的关键在于compaction默认情况下五个写入commits压缩一次可动态调整。此外,也可以通过控制micropartition的大小限制文件无限增大。

相比传统 Hive 的基于文件目录partition的粒度,Hudi更细粒度进行维护,可以得到更加高效的更新查询,提高了数据新鲜度和数据增量摄入的效率。Merge on readcompaction 之后的表形态与 copy on write类似。没有 compaction 时做快照查询,会对大版本的列存文件和行存的新增文件进行查询并merge到一起查询粒度为 micropartition

Merge on read micropartition 语义能够保序,因此能够保留 micropartition 级别的数据序。Streaming reader 也会micropartition 粒度进行适配,保证了数据的顺序写入顺序读取,保留了 message queue 的消息消费语义。

总结来说,Hudi既保留了仓的 batch 查询效率,也提供message queue 的保能力。

三、Hudi应用场景

Hudi应用场景一:DB数据入仓/

image.png

传统的数据摄入工具基本只能实现小时级别或 T+1 级别,而DB数据入仓入方案可以将数据新鲜度提升到分钟级别,主要有两套实现方案。

方案一:Hudi支持实时摄入changelog 流,可以通过CDC-onnector 无缝对接数据库的数据,将全量+增量的数据实时导Hudi

方案二:规模较大的公司比如字节、美团等,有统一的 message queue归拢了数据库的changelog 可以统一使用CDC-format使得 Flink实时地消费 Kafkachangelog 导入Hudi

方案一的优势在于为 Serverless 架构,可以比较方便地将数据库里的全量+新增的数据实时地导到Hudi同时提供了分钟级别的端到端数据新鲜度方案二的优势在于可以利用 message queue的分发属性提供更好的扩展性与稳定性。目前云上用户多选择第一套方案

Hudi应用场景二:近实时OLAP

image.png

近实时OLAP的核心思想利用Hudi的增量摄入能力,提供分钟级的数据新鲜度,结合下游开放的查询引擎,可以对接 message queue 做数据的实时打宽轻量的聚合加工等,写入Hudi的湖表格式里,并最终对接分析引擎比如StarRocksPresto 等。当更新引擎本身对更新的支持不够时,可以用Hudi框架处理更新流接上更新引擎。如果希望统一仓与 OLAP 的存储层,也可使用该方案。

该方案的优势在于既可以做到分钟级的 streaming 近实时的数据处理与加工,同时也能够满足一定的查询分析 OLAP 需求。将仓的数据加工与 OLAP 的场景集成到一个存储抽象里,无需进行数据的双写,只用一套存储的抽象完成两个场景的需求

Hudi应用场景三:近实时ETL

image.png

近实时ETL核心卖点是可以实现端到端的增量 ETL 生产。主要思路为kafka架构里的 kafka 换成 HudiHudiformat提供了message queue的抽象,可以对数据进行保序,并且能够提供 micropartition 粒度的文件分片以及消息的抽象。因此可以利用 message queue的特性,实时地对Flinkchangelog 进行consume,并进行保存,下一计算层继续使用,以此实现端到端的增量处理。

该架构的优势在于节省batch调度同时提供了不错的端到端的数据新鲜度以及稳定性。目前产品的成熟度比如数据运维依然有所欠缺比如中间链路失败后进行容灾恢复成本较高。消费历史数据场景下,batch的计算形式join高效流的优势主要在于消费增量的部分。可以通过增量的 ETL 的生产导入到湖表格式里,再对接其他的应用场景比如导 ES service MySQL 导出形式也非常多样,可以使用 streaming 可以使用 batch 增量拉取。

四、Pulsar&Hudi

image.png

PulsarHudi的结合目前正在研发中。成熟之后,Pulsar将可以覆盖毫秒、秒级、分钟级、小时级、天级等场景,Hudi可以覆盖分钟级以上场景Pulsar+Hudi的组合可以解决流的时效性问题同时也解决数据长期存储的成本问题,比如可以将在 streaming 实时数仓的生态系统将对时效性要求比较高的数据存到Pulsar,将冷数据或历史数据保存Hudi format 。基于此,Pulsar+Hudi的组合能够覆盖从毫秒到无穷大时域的大数据生态与场景。

此外,每个场景计算层面都会有对应的计算引擎或产品,这也是生态开放性的体现。

有了Pulsar实时湖仓的解决方案可从近实时升级为实时,既覆盖了传统的毫秒级别的实时场景,也覆盖了仓的主流场景,非常值得期待。

Q&A

 

Q:详细叙述metadata index 的功能

Aindex 目前提供的主要是写入端的主键索引,会给每个文件构建主键索引用于描述主键到文件句柄的 mapping 关系,从而实现行级别的写入,即实现了行级的更新能力。每一个key 的生命周期的所有变更都必须在一个 micropartition 通过主键索引的方式维护了 key microposition对应关系。 0.1 版本开始已经支持了metadata结合的多模索引,会在写入过程中记录每一个文件一个 column max-min bloomfilter 。多模索引面向查询端,在查询时会利用多模索引做 Data Skipping比如利用查询里filter 过滤以及 max-min 多模索引提前将需要扫描的文件列表做一层过滤,使得查询性能得到数量级的提升。

Metadata分为两个方面其中,Hudi为了做事务的多版本状态控制,提出了 timeline 的概念。 timeline 里每一个事务对应一个 instanceinstance里记录MetadataMetadata 里会记录事务的基础信息比如事务写文件数、新增消息数量、更新消息数量等

另外,在写入的过程如果想要做查询加速,开启多模索引记录额外的信息比如bloomfilter 、行存的一个 column max-min,并将信息 metadata 表里

QData Source Lake Storage 的界限在哪里?

ALake House上层暴露的接口分为种形态,分别为 API的方式经典的 SQL 方式。

如果将Lake Storage理解数据湖产品,数据库产品本身已经暴露了 data source 的能力如果将 Lake Storag 定义物理存储,比如云厂商的对象存储或开源的 HDFS则界限即在于数据湖提供的能力,比如对查询引擎的适配以及事务层丰富的支持。

相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
6月前
|
存储 SQL 缓存
实时数仓宽表加工解决方案
实时数仓宽表加工解决方案
170 0
实时数仓宽表加工解决方案
|
2月前
|
存储 数据可视化 数据挖掘
《基于 hologres 搭建轻量 OLAP 分析平台》解决方案的测评
《基于 hologres 搭建轻量 OLAP 分析平台》解决方案的测评
49 4
|
5月前
|
存储 分布式计算 关系型数据库
实时数仓 Hologres产品使用合集之在行式存储的 Hologres 中新增一列,DB 会锁表吗,如果不会的话现在是怎么处理的呢
实时数仓Hologres的基本概念和特点:1.一站式实时数仓引擎:Hologres集成了数据仓库、在线分析处理(OLAP)和在线服务(Serving)能力于一体,适合实时数据分析和决策支持场景。2.兼容PostgreSQL协议:Hologres支持标准SQL(兼容PostgreSQL协议和语法),使得迁移和集成变得简单。3.海量数据处理能力:能够处理PB级数据的多维分析和即席查询,支持高并发低延迟查询。4.实时性:支持数据的实时写入、实时更新和实时分析,满足对数据新鲜度要求高的业务场景。5.与大数据生态集成:与MaxCompute、Flink、DataWorks等阿里云产品深度融合,提供离在线
|
1月前
|
OLAP
解决方案|基于hologres搭建轻量OLAP分析平台获奖名单公布!
解决方案|基于hologres搭建轻量OLAP分析平台获奖名单公布!
|
2月前
|
安全 数据挖掘 关系型数据库
体验《基于hologres搭建轻量OLAP分析平台》解决方案并进行部署
《基于HoloGres搭建轻量OLAP分析平台》解决方案详尽介绍了HoloGres基础、OLAP原理及平台架构设计等内容。涵盖数据模型设计、加载流程、查询优化及安全性能考虑等多方面,适合有一定背景知识的读者深入理解和实践。然而,对于初学者而言,可能需要更多概念解释。方案在数据迁移、高级查询优化及安全配置等方面提供了指导,但仍需注意潜在的环境兼容性、配置错误及性能瓶颈等问题。通过参考官方文档和社区资源,用户可以解决常见问题并根据实际需求进行调整优化,以实现高效的数据分析。
|
1月前
|
DataWorks 数据挖掘 关系型数据库
基于hologres搭建轻量OLAP分析平台解决方案评测
一文带你详细了解基于hologres搭建轻量OLAP分析平台解决方案的优与劣
205 8
|
2月前
|
存储 数据可视化 数据挖掘
《基于 hologres 搭建轻量 OLAP 分析平台》解决方案的测评
《基于 hologres 搭建轻量 OLAP 分析平台》解决方案的测评
42 8
|
3月前
|
存储 消息中间件 运维
招联金融基于 Apache Doris 数仓升级:单集群 QPS 超 10w,存储成本降低 70%
招联内部已有 40+ 个项目使用 Apache Doris ,拥有超百台集群节点,个别集群峰值 QPS 可达 10w+ 。通过应用 Doris ,招联金融在多场景中均有显著的收益,比如标签关联计算效率相较之前有 6 倍的提升,同等规模数据存储成本节省超 2/3,真正实现了降本提效。
招联金融基于 Apache Doris 数仓升级:单集群 QPS 超 10w,存储成本降低 70%
|
2月前
|
数据挖掘 关系型数据库 MySQL
《基于hologres搭建轻量OLAP分析平台》解决方案并进行部署评测
《基于hologres搭建轻量OLAP分析平台》解决方案并进行部署
|
2月前
|
存储 机器学习/深度学习 监控
阿里云 Hologres OLAP 解决方案评测
随着大数据时代的到来,企业面临着海量数据的挑战,如何高效地进行数据分析和决策变得尤为重要。阿里云推出的 Hologres OLAP(在线分析处理)解决方案,旨在为用户提供快速、高效的数据分析能力。本文将深入探讨 Hologres OLAP 的特点、优势以及应用场景,并针对方案的技术细节、部署指导、代码示例和数据分析需求进行评测。
127 7

热门文章

最新文章