大数据繁荣生态圈组件之实时大数据Druid小传(二)Druid架构与原理

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,182元/月
云原生网关 MSE Higress,422元/月
简介: 索引服务是数据摄入创建和销毁Segment的重要方式,Druid提供一组支持索引服务(Indexing Service)的组件,即Overlord和MiddleManager节点。

Druid架构与原理


1. Druid系统架构详解


Druid有5种节点:


1.Overlord


2.MiddleManager


3.Coordinator


4.Historical


5.Broker


以下是这几个节点的主要功能:


1.Overlord、MiddleManager


负责处理索引任务


Overlord是MiddleManager的master节点


2.Coordinator、Historical


负责管理分发Segment


Coordinator是Historical的master节点


3.Broker


负责接收Client查询请求


拆分子查询给MiddleManager和Historical节点


合并查询结果返回给Client


a2762e04e20eabeea5b2a987e768fe7e.jpg


索引服务


索引服务是数据摄入创建和销毁Segment的重要方式,Druid提供一组支持索引服务(Indexing Service)的组件,即Overlord和MiddleManager节点。


索引服务采用的是主从架构,Overlord为主节点,MiddleManager是从节点


索引服务架构图如下图所示:


a78ab8f6c2bd0192a43a00c68807651f.jpg


索引服务由三部分组件组成:


Overlord组件 :分配任务给MiddleManager


MiddleManager组件 :用于管理Peon的


Peon组件 :用于执行任务


部署:


1.MiddleManager和Overlord组件可以部署在相同节点也可以跨节点部署


2.Peon和MiddleManager是部署在同一个节点上的


索引服务架构和Yarn的架构很像:


Overlaod => ResourceManager,负责集群资源管理和任务分配


MiddleManager => NodeManager,负责接受任务和管理本节点的资源


Peon => Container,执行节点上具体的任务


1.2. Overlord节点


Overlord是索引服务的主节点,对外负责接受索引任务,对内负责将任务分解并下发给MiddleManager


Overlord有两种运行模式:


本地模式(Local Mode):默认模式

本地模式下的Overlord不仅负责任务协调工作,还会负责启动一些peon来完成具体的任务。


远程模式(Remote Mode)

该模式下,Overlord和MiddleManager运行在不同的节点上,它仅负责任务的协调工作,不负责完成具体的任务。


3.UI客户端


Overlord提供了一个UI客户端,可以用于查看任务、运行任务和终止任务等


UI访问地址:http://node01:8090/console.html


Overlord提供了RESETful的访问形式,所以客户端可以通过HTTP POST形式向请求节点提交任务:


提交任务 : http://node01:8090/druid/indexer/v1/task


杀死任务 : http://node01:8090/druid/indexer/v1/task/{task_id}/shutdown


1.3. MiddleManager节点

MiddleManager是执行任务的工作节点


MiddleManager会将任务单独发给每个单独JVM运行的Peon


每个Peon一次只能运行一个任务


1.4. Coordinator节点

Coordinator是Historical的mater节点,主要负责管理和分发Segment


具体工作就是:


1.告知Historical加载或删除Segment


2.管理Segment副本以及负载Segment在Historical上的均衡


Coordinator是定期运行的,通过Zookeeper获取当前集群状态,通过评估集群状态来进行均衡负载Segment。


Coordinator连接数据库(MetaStore),获取Segment信息和规则(Rule),Coordinator根据数据库中表的数据来进行集群 segment 管理


Coordinator提供了一UI界面,用于显示集群信息和规则配置:http://node1:8081/index.html#/


1.5. Historical节点


1.Historical节点负责管理历史Segment


2.Historical节点通过Zookeeper监听指定的路径来发现是否有新的Segment需要加载


3.Historical节点收到有新的Segment时候,就会检测本地cache和磁盘,查看是否有该Segment信息。如果没有Historical节点会从Zookeeper中拉取该Segment相关的信息,然后进行下载


31f6fed6e5f6feff7f37a0bddb58a084.jpg


1.6. Broker节点


Broker节点负责转发Client查询请求的


Broker通过zookeeper能够知道哪个Segment在哪些节点上,将查询转发给相应节点


所有节点返回数据后,Broker会将所有节点的数据进行合并,然后返回给Client


2. Druid数据存储


Druid提供对大数据集的实时摄入和高效复杂查询的性能,主要原因:基于Datasource与Segment的数据存储结构


2.1. 数据存储


1.Druid中的数据存储在被称为DataSource中,DataSource类似RDMS中的table


2.每个DataSource按照时间划分,每个时间范围称为一个chunk((比如按天分区,则一个chunk为一天))。


3.在chunk中数据被分为一个或多个segment;


4.segment是数据实际存储结构,Datasource、Chunk只是一个逻辑概念;


每个segment都是一个单独的文件,通常包含几百万行数据;


segment是按照时间组织成的chunk,所以在按照时间查询数据时,效率非常高。


673cbc4572fd7eb1a02be09394f04cca.jpg


2.2. 数据分区


Druid处理的是事件数据,每条数据都会带有一个时间戳,可以使用时间进行分区,上图指定了分区粒度为天,那么每天的数据都会被单独存储和查询。


2.3. Segment


Segment是数据存储、复制、均衡和计算的基本单元


Segment具备不可变性,一个Segment一旦创建完成后(MiddleManager节点发布后)就无法被修改


只能通过生成一个新的Segment来代替旧版本的Segment


2.4. Segment内部存储结构


Druid采用列式存储,每列数据都是在独立的结构中存储


Segment中的数据类型主要分为三种:


1.时间戳


2.维度列


3.指标列


3d84fd659ac74ffd145a69a415d22d3f.jpg


1.时间戳列和指标列


Druid采用LZ4压缩每列的整数或浮点数


收到查询请求后,会拉出所需的行数据(对于不需要的列不会拉出来),并且对其进行解压缩。


2.维度列


维度列需要支持filter和group by


Druid使用了字典编码(Dictionary Encoding)和位图索引(Bitmap Index)来存储每个维度列。


每个维度列需要三个数据结构:


1.需要一个字典数据结构,将维度值映射成一个整数ID


2.使用上面的字典编码,将该列所有维度值放在一个列表中


3.对于列中不同的值,使用bitmap数据结构标识哪些行包含这些值。


Druid针对维度列之所以使用这三个数据结构,是因为:


1.使用字典将字符串映射成整数ID,可以紧凑的表示维度数据


2.使用Bitmap位图索引可以执行快速过滤操作


  • 找到符合条件的行号,以减少读取的数据量
  • Bitmap可以快速执行AND和OR操作


3. roll-up聚合


1.Druid通过一个roll-up的处理,将原始数据在注入的时候就进行汇总处理;


2.roll-up可以压缩我们需要保存的数据量;


3.Druid会把选定的相同维度的数据进行聚合操作,可减少存储的大小;


4.Druid可以通过 queryGranularity 来控制注入数据的粒度。 最小的queryGranularity 是 millisecond(毫秒级)。


Roll-up聚合前:


time app_key area value
2019-10-05 10:00:00 area_key1 Beijing 1
2019-10-05 10:30:00 area_key1 Beijing 1
2019-10-05 11:00:00 area_key1 Beijing 1
2019-10-05 11:00:00 area_key2 Shanghai 2


Roll-up聚合后:


time app_key area value
2019-10-05 area_key1 Beijing 3
2019-10-05 area_key2 Shanghai 2


3.1. 位图索引


以下为一个DataSource(表)中存储的数据。


ae25e2a55f14b73f190f14e416f4731b.jpg


第一列为时间,Appkey和area都是维度列,value为metric列;


Druid会在导入阶段自动对数据进行Rollup,将维度相同组合的数据进行聚合处理;


按天聚合后的数据如下:


818a739e85b2cfbf79ef0cee3e8ff452.jpg


Druid通过建立位图索引,来实现快速进行数据查找。


索引如下所示:


148effb64edefd28c486e7f293b3e467.jpg


索引位图可以看作是HashMap


key就是维度的取值;


value就是该表中对应的行是否有该维度的值;


ff0c77a1dc3021d9e7a907812bf92d69.jpg


以SQL查询为例:


1)boolean条件查询


select sum(value) from AD_areauser where time=’2017-10-11’ and Appkey in (‘appkey1’,’appkey2’) and area=’北京’


执行过程分析:


1.根据时间段定位到segment

2.Appkey in (‘appkey1’, ‘appkey2’) and area=’北京’查到各自的bitmap


2.1: (appkey1(1000) or appkey2(0110)) and (北京(1100) ) =》 (1000 or 0110 )and 1100


2.2: (1000 or 0110) and 1100 = 1110 and 1100 = 1100


2.3: 符合条件的列为第一行和第二行,这两行的 sum(value) 的和为26.


2)group by 查询


select area, sum(value) from AD_areauser where time=’2017-10-11’and Appkey in (‘appkey1’,’appkey2’) group by area


该查询与上面的查询不同之处在于将符合条件的列


1.appkey1(1000) or appkey2(0110) = (1110)

2.将第一行、第二行、第三行取出来

3.在内存中做分组聚合。结果为:北京:26, 上海:13.


本次项目使用Druid来进行实时OLAP分析,通过Flink预处理Kafka的数据,再将预处理后的数据下沉到Kafka中。再基于Druid进行数据分析。

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
1月前
|
存储 分布式计算 资源调度
【赵渝强老师】阿里云大数据MaxCompute的体系架构
阿里云MaxCompute是快速、全托管的EB级数据仓库解决方案,适用于离线计算场景。它由计算与存储层、逻辑层、接入层和客户端四部分组成,支持多种计算任务的统一调度与管理。
110 1
|
2月前
|
SQL 存储 监控
流处理 or 批处理?大数据架构还需要流批一体吗?
简介:流处理与批处理曾是实时监控与深度分析的两大支柱,但二者在数据、代码与资源上的割裂,导致维护成本高、效率低。随着业务对数据实时性与深度分析的双重需求提升,传统架构难以为继,流批一体应运而生。它旨在通过逻辑、存储与资源的统一,实现一套系统、一套代码同时支持实时与离线处理,提升效率与一致性,成为未来大数据架构的发展方向。
|
3月前
|
存储 监控 算法
园区导航系统技术架构实现与原理解构
本文聚焦园区导航场景中室内外定位精度不足、车辆调度路径规划低效、数据孤岛难以支撑决策等技术痛点,从架构设计到技术原理,对该系统从定位到数据中台进行技术拆解。
113 0
园区导航系统技术架构实现与原理解构
|
3月前
|
消息中间件 分布式计算 大数据
“一上来就搞大数据架构?等等,你真想清楚了吗?”
“一上来就搞大数据架构?等等,你真想清楚了吗?”
64 1
|
10月前
|
弹性计算 API 持续交付
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。
|
11月前
|
Cloud Native Devops 云计算
云计算的未来:云原生架构与微服务的革命####
【10月更文挑战第21天】 随着企业数字化转型的加速,云原生技术正迅速成为IT行业的新宠。本文深入探讨了云原生架构的核心理念、关键技术如容器化和微服务的优势,以及如何通过这些技术实现高效、灵活且可扩展的现代应用开发。我们将揭示云原生如何重塑软件开发流程,提升业务敏捷性,并探索其对企业IT架构的深远影响。 ####
261 3
|
11月前
|
Cloud Native 安全 数据安全/隐私保护
云原生架构下的微服务治理与挑战####
随着云计算技术的飞速发展,云原生架构以其高效、灵活、可扩展的特性成为现代企业IT架构的首选。本文聚焦于云原生环境下的微服务治理问题,探讨其在促进业务敏捷性的同时所面临的挑战及应对策略。通过分析微服务拆分、服务间通信、故障隔离与恢复等关键环节,本文旨在为读者提供一个关于如何在云原生环境中有效实施微服务治理的全面视角,助力企业在数字化转型的道路上稳健前行。 ####
|
6月前
|
Cloud Native Serverless 流计算
云原生时代的应用架构演进:从微服务到 Serverless 的阿里云实践
云原生技术正重塑企业数字化转型路径。阿里云作为亚太领先云服务商,提供完整云原生产品矩阵:容器服务ACK优化启动速度与镜像分发效率;MSE微服务引擎保障高可用性;ASM服务网格降低资源消耗;函数计算FC突破冷启动瓶颈;SAE重新定义PaaS边界;PolarDB数据库实现存储计算分离;DataWorks简化数据湖构建;Flink实时计算助力风控系统。这些技术已在多行业落地,推动效率提升与商业模式创新,助力企业在数字化浪潮中占据先机。
354 12
|
10月前
|
Java 开发者 微服务
从单体到微服务:如何借助 Spring Cloud 实现架构转型
**Spring Cloud** 是一套基于 Spring 框架的**微服务架构解决方案**,它提供了一系列的工具和组件,帮助开发者快速构建分布式系统,尤其是微服务架构。
795 70
从单体到微服务:如何借助 Spring Cloud 实现架构转型

热门文章

最新文章