一篇文章搞定一个大数据组件:kudu知识点全集

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 一篇文章搞定一个大数据组件:kudu知识点全集

正文


1、kudu的定位


HDFS: 存储格式Textfile,Parquet,ORC,适合离线分析,不支持单条记录级别的update操作,随机读写性能差。


HBASE :可以进行高效随机读写,但写快读慢,大批量数据获取时的性能较差。并不适用于基于SQL的数据分析方向。


Kudu:


批量更新和单条记录更新都很友好  --FastData


与Impala组合使用,OLAP性能强大  --FastAnalytics


高可用


动态扩展


2、kudu基本概念


Table(表):一张table是数据存储在kudu的位置。Table具有schema和全局有序的primarykey(主键)。


Tablet(段):一个tablet是一张table连续的segment,与其他数据存储引擎或关系型数据的partition相似。Tablet存在副本机制,其中一个副本为leadertablet。任何副本都可以对读取进行服务,并且写入时需要在所有副本对应的tabletserver之间达成一致性。


Tabletserver:存储tablet和为tablet向client提供服务。对于给定的tablet,一个tabletserver充当leader,其他tabletserver充当该tablet的follower副本。只有leader服务写请求,leader与follower为每个服务提供读请求。


Master:主要用来管理元数据(元数据存储在只有一个tablet的catalogtable中),即tablet与表的基本信息,监听tserver的状态


CatalogTable: 元数据表,用来存储table(schema、locations、states)与tablet(现有的tablet列表,每个tablet及其副本所处tserver,tablet当前状态以及开始和结束键)的信息。


123.png


3、存储架构


000000000000000.png

88.png



•MemRowSet


用于新数据insert及已在MemRowSet中的数据的更新,一个MemRowSet写满后会将数据刷到磁盘形成若干个DiskRowSet。(默认是1G或者或者120S)


•DiskRowSet


用于老数据的变更(mutation),后台定期对DiskRowSet做compaction,以删除没用的数据及合并历史数据,减少查询过程中的IO开销。


•BloomFile


根据一个DiskRowSet中的key生成一个bloomfilter,用于快速模糊定位某个key是否在DiskRowSet中存在。


•Ad_hocIndex


主键的索引,用于定位key在DiskRowSet中的具体哪个偏移位置。


•BaseData


MemRowSet flush下来的数据,按列存储,按主键有序。


•UndoFile


基于BaseData之前时间的历史数据,通过在BaseData上applyUndoFile中的记录,可以获得历史数据。


•RedoFile


基于BaseData之后时间的变更(mutation)记录,通过在BaseData上applyRedoFile中的记录,可获得较新的数据。


•DeltaMem


用于DiskRowSet中数据的变更mutation,先写到内存中,写满后flush到磁盘形成RedoFile。



3.1 储存架构:Tablet


分区策略 Writes Reads Tablet Growth
Range 所有写入都会落到最新分区 可以通过分区键提高读能力

可添加新tablets

Hash 在tablets上均匀分布 可以通过分区键提高读能力 tablets会无限增长

Hash分区有利于提高写吞吐量Range分区可避免tablet无限增长问题,所以我们可以使用多级分区,组合这两种分区方式


3.2 储存架构:RowSets


Tablet在底层被进一步细分成了一个称之为RowSets的单元


123.png


•MemRowSet


用于新数据insert及已在MemRowSet中的数据的更新,一个MemRowSet写满后会将数据刷到磁盘形成若干个DiskRowSet。(默认是1G或者或者120S)


•DiskRowSet


用于老数据的变更(mutation),后台定期对DiskRowSet做compaction,以删除没用的数据及合并历史数据,减少查询过程中的IO开销。


3.3 储存架构:DiskRowSets


DiskRowSet分为了两部分:basedata、deltastores。basedata 负责存储基础数据,deltastores负责存储 basedata 中的变更数据


88.png


4、kudu工作原理


4.1 Compaction


由于所有插入的数据都是先写入memRowSet,到达一定条件后再写入DiskRowSet,而且DiskRowSet中的basedata是不变的,这就导致会出现数据重叠的现象,导致写或查询时需要搜索大量的DiskRowSet



000000000000000.png



三种Compaction策略:


 DiskRowSet Compaction:减少DiskRowSet数量,优化insert、update和scans时间。


 Minor Delta Compaction:只减少delta file数量,优化scans时间。


 Major Delta Compaction:对base data和delta file进行compaction,优化scans时间


4.2 Tablet切分规则


建表时指定分区策略


Hash Partitioning:哈希分区通过哈希值将行分配到某一个bucket,每个bucket对应一个tablet,建表时设置bucket的数量。


Range Partitioning:range partition使用完全有序的分区键来分配行,分区键必须是kudu表主键的子集。


DEMO:


CREATE TABLE cust_behavior (


 _id BIGINT PRIMARY KEY,


 skuSTRING,


 rating INT,


 fulfilled_dateBIGINT


)


PARTITION BY RANGE(_id)


(


   PARTITION VALUES< 1439560049342,


   PARTITION1439560049342 <= VALUES < 1439566253755,


   PARTITION1439566253755 <= VALUES < 1439572458168,


   PARTITION1439572458168 <= VALUES < 1439578662581,


   PARTITION1439578662581 <= VALUES < 1439584866994,


   PARTITION1439584866994 <= VALUES < 1439591071407,


   PARTITION1439591071407 <= VALUES


)


STORED AS KUDU;


4.3 kudu写过程:insert


Kudu与HBase不同,Kudu将写入操作分为两种:一种是插入新数据,另一种是更新数据


123.png


1、客户端连接Master获取表的相关信息,包括分区信息,表中所有tablet的信息;


2、客户端找到负责处理读写请求的tablet所负责维护的TServer。Kudu接受客户端的请求,检查请求是否符合要求(表结构);


3、Kudu在Tablet中的所有rowset(memrowset,diskrowset)中进行查找,看是否存在与待插入数据相同主键的数据,如果存在就返回错误,否则继续;


4、Kudu在MemRowset中写入一行新数据,在MemRowset数据达到一定大小时,MemRowset将数据落盘,并生成一个diskrowset用于持久化数据,还生成一个memrowset继续接收新数据的请求。



4.4 kudu写过程:update


88.png


4.5 Kudu读过程


000000000000000.png


1、客户端连接Master获取表的相关信息,包括分区信息,表中所有tablet的信息;


2、客户端找到需要读取的数据的tablet所在的TServer,Kudu接受读请求,并记录timestamp信息,如果没有显式指定,那么表示使用当前时间;


3、Kudu找到待读数据的所有相关信息,当目标数据处于memrowset时,根据读取操作中包含的timestamp信息将该timestamp前提交的更新操作合并到base data中,这个更新操作记录在该行数据对应的mutation链表中;


4、当读取的目标数据位于diskrowset中,在所有DeltaFile中找到所有目标数据相关的UNDO record和REDO records,REDO records可能位于多个DeltaFile中,根据读操作中包含的timestamp信息判断是否需要将base data进行回滚或者利用REDO records将base data进行合并更新。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
2月前
|
存储 分布式计算 API
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
100 0
|
1月前
|
SQL 数据采集 分布式计算
【赵渝强老师】基于大数据组件的平台架构
本文介绍了大数据平台的总体架构及各层的功能。大数据平台架构分为五层:数据源层、数据采集层、大数据平台层、数据仓库层和应用层。其中,大数据平台层为核心,负责数据的存储和计算,支持离线和实时数据处理。数据仓库层则基于大数据平台构建数据模型,应用层则利用这些模型实现具体的应用场景。文中还提供了Lambda和Kappa架构的视频讲解。
171 3
【赵渝强老师】基于大数据组件的平台架构
|
2月前
|
SQL 存储 分布式计算
大数据-157 Apache Kylin 背景 历程 特点 场景 架构 组件 详解
大数据-157 Apache Kylin 背景 历程 特点 场景 架构 组件 详解
41 9
|
1月前
|
SQL 分布式计算 大数据
【赵渝强老师】大数据生态圈中的组件
本文介绍了大数据体系架构中的主要组件,包括Hadoop、Spark和Flink生态圈中的数据存储、计算和分析组件。数据存储组件包括HDFS、HBase、Hive和Kafka;计算组件包括MapReduce、Spark Core、Flink DataSet、Spark Streaming和Flink DataStream;分析组件包括Hive、Spark SQL和Flink SQL。文中还提供了相关组件的详细介绍和视频讲解。
|
2月前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
80 1
|
2月前
|
分布式计算 Java 大数据
大数据-147 Apache Kudu 常用 Java API 增删改查
大数据-147 Apache Kudu 常用 Java API 增删改查
37 1
|
2月前
|
消息中间件 监控 Java
大数据-109 Flink 体系结构 运行架构 ResourceManager JobManager 组件关系与原理剖析
大数据-109 Flink 体系结构 运行架构 ResourceManager JobManager 组件关系与原理剖析
80 1
|
3月前
|
存储 分布式计算 资源调度
两万字长文向你解密大数据组件 Hadoop
两万字长文向你解密大数据组件 Hadoop
148 11
|
2月前
|
存储 大数据 Apache
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
25 0
|
2月前
|
存储 分布式计算 大数据
大数据-145 Apache Kudu 架构解读 Master Table 分区 读写
大数据-145 Apache Kudu 架构解读 Master Table 分区 读写
51 0