关于流批一体的几点思考

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 关于流批一体的几点思考

流批一体主要核心在三个方面:

存储一体
计算一体
应用一体

1、统一数据采集层。

数据源:在数据源层面,分为日志类和业务类,使用一致的的采集方法。使用Flink CDC统一采集,经Kafka传输到数据存储层。这样不需要再维护Sqoop和另一套采集系统。

2、统一数据存储层。

消息队列

首先在计算层,Pulsar Broker 不保存任何状态数据、不做任何数据存储,称之为服务层。其次,Pulsar 拥有一个专门为消息和流设计的存储引擎 BookKeeper,称之为数据层。如果要支持更多的 Producer 和 Consumer,可扩充上面无状态的 Broker 层;如果要支持更多的数据存储,可单独扩充底层存储层。这种分层的架构为做批流融合打好了基础。因为它原生分成了两层,可以根据用户的使用场景和批流的不同访问模式,来提供两套不同的 API。

如果是实时数据的访问,可以通过上层 Broker 提供的 Consumer 接口;
如果是历史数据的访问,可以跳过 Broker,用存储层的 reader 接口,直接访问底层存储层。

数据湖

可使用Hudi、Iceberg、paimon作为流批一体的统一存储层。统一存储数仓的ODS、DWD、DWS、DWT、DM各层数据。

(1)存储原始数据,数据结构多样化。
(2)支持多种计算模型,解耦计算引擎和存储系统。
(3)支持灵活廉价的底层存储,可使用本地HDFS、或云上对象存储S3、OSS。
(4)支持事务ACID。

3、统一元数据层。

使用Flink Catalog统一元数据管理,例如数据库、表、分区、视图以及外部系统。Catalog提供统一API,统一管理元数据,使其可从TableAPI和SQL查询语句中访问。使用Flink Catalog解决了大数据引擎不同元数据格式造成的复杂问题,并且Catalog与Hive MetaStore兼容。

4、统一计算引擎层。

使用Flink Unified DataStream统一计算引擎层。Flink Unified DataStream能更好支持流和批两种计算模式。Unified DataStream统一和简化了以前流批要分别使用DataStream和Dataset的繁琐。并且Unified DataStream针对Unbounded场景,在磁盘I/O访问,序列化和反序列化做了优化,使得Unbounded和Bounded的效率、可用性、易用性都得到很大提升。

5、统一SQL引擎层。

可使用Flink SQL或Presto/Trino。Flink SQL将流处理和批处理统一,支持大部分标准SQL的语法和语义。

6、统一应用层

结果视图需要支持低延迟的查询分析,通常需将数据结果存储到列存分析系统,可使用doris/starrocks和Presto/Trino。

7、初步架构设计

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
目录
打赏
0
0
0
0
41
分享
相关文章
Apache Hudi在信息服务行业构建流批一体的实践
Apache Hudi在信息服务行业构建流批一体的实践
240 2
基于 Hologres+Flink 的曹操出行实时数仓建设
本文主要介绍曹操出行实时计算负责人林震,基于 Hologres+Flink 的曹操出行实时数仓建设的解决方案分享。
109716 1
基于 Hologres+Flink 的曹操出行实时数仓建设
实时湖仓技术选型,企业如何借实时湖仓赢在“数据驱动”时代
本文从技术的角度,为大家解析实时湖仓的存储原理以及生态选型,为企业建设实时湖仓给出参考意见,助力企业借实时湖仓赢在“数据驱动”时代。
158 0
大数据时代的引擎:大数据架构随记
大数据架构通常分为四层:数据采集层、数据存储层、数据计算层和数据应用层。数据采集层负责从各种源采集、清洗和转换数据,常用技术包括Flume、Sqoop和Logstash+Filebeat。数据存储层管理数据的持久性和组织,常用技术有Hadoop HDFS、HBase和Elasticsearch。数据计算层处理大规模数据集,支持离线和在线计算,如Spark SQL、Flink等。数据应用层将结果可视化或提供给第三方应用,常用工具为Tableau、Zeppelin和Superset。
1300 8
实时数仓Kappa架构:从入门到实战
【11月更文挑战第24天】随着大数据技术的不断发展,企业对实时数据处理和分析的需求日益增长。实时数仓(Real-Time Data Warehouse, RTDW)应运而生,其中Kappa架构作为一种简化的数据处理架构,通过统一的流处理框架,解决了传统Lambda架构中批处理和实时处理的复杂性。本文将深入探讨Kappa架构的历史背景、业务场景、功能点、优缺点、解决的问题以及底层原理,并详细介绍如何使用Java语言快速搭建一套实时数仓。
623 4
平安人寿基于 Apache Doris 统一 OLAP 技术栈实践
平安人寿作为保险行业领军企业,坚持技术创新,以数据业务双轮驱动的理念和更加开放的思路来应对不断增长的数据分析和应用需求;以深挖数据价值、保障业务用数效率为目标持续升级大数据产品体系。自 2022 年起平安人寿开始引入开源实时数据仓库 Apache Doris 并基于此统一 OLAP 技术栈,通过统一的数据开发与服务打破了原有系统的数据“孤岛”、降低了需求的开发成本、加速了业务需求的交付周期,并满足了业务方更高数据时效性与查询响应度的要求,最终形成更开放、灵活、可扩展的企业级管理与分析大数据产品体系,实现数据价值的最大化释放,助力企业由“粗放型”业务增长转变为“精细化”效益提升。
1507 2
直播预约丨《实时湖仓实践五讲》第二讲:实时湖仓功能架构设计与落地实战
《实时湖仓实践五讲》是袋鼠云打造的系列直播活动,将围绕实时湖仓的建设趋势和通用问题,邀请奋战于企业数字化一线的核心产品&技术专家,结合实践案例分析,和听众共同探讨实时湖仓领域的前沿技术。 《实时湖仓实践五讲》第二讲——《实时湖仓功能架构设计与落地实战》将于10月11日 15:00-16:00开播。 快快预约直播吧~
80 0