实时数据处理框架调研

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 产品 模型 API 保证次数 容错机制 状态管理 延时 吞吐量 成熟度 Storm Native Compositional At least once Record ACKs Not built-in < 1s Low High Trident Micro-batching Compositi.

image
image

产品 模型 API 保证次数 容错机制 状态管理 延时 吞吐量 成熟度
Storm Native Compositional At least once Record ACKs Not built-in < 1s Low High
Trident Micro-batching Compositional Exactly-once Record ACKs Dedicated Operators Seconds~mins Medium High
Spark Streaming Micro-batching Declarative Exactly-once RDD based Checkpointing Dedicated DStream Seconds~mins High High
Samza Native Compositional At least once Log-based Stateful Operators ms ~ s High Medium
Flink Native Declarative Exactly-once Checkpointing Stateful Operators ms ~ s High 1.0以发布

Spark vs flink

内存管理:

一直到1.5版本,spark都是试用java的内存管理来做数据缓存,明显很容易导致OOM或者gc。所以从1.5开始,spark开始转向精确的控制内存的使用,这就是tungsten项目了。从1.5开始,所有的dataframe操作都是直接作用在tungsten的二进制数据上。
flink从第一天开始就坚持自己控制内存试用。这个也是启发了spark走这条路的原因之一。flink除了把数据存在自己管理的内存以外,还直接操作二进制数据。

语言实现

Spark用的Scala, flink是java

对 windowing 的支持:

因为spark的小批量机制,spark对于windowing的支持非常有限。只能基于process time,且只能对batches来做window。
Flink对window的支持非常到位,且Flink对windowing API的支持是相当给力的,允许基于process time,data time,record 来做windowing。

SQL interface

spark-sql是spark里面最活跃的组件之一,Spark提供了类似Hive的sql和Dataframe这种DSL来查询结构化数据,API很成熟,在流式计算中使用很广,预计在流式计算中也会发展得很快。
Flink Table API只支持类似DataFrame这种DSL,并且还是处于beta状态,社区有计划增加SQL 的interface,但是目前还不确定什么时候才能在框架中用上。

Data source Integration

Spark的数据源 API是整个框架中最好的,支持的数据源包括NoSql db,parquet,ORC等,并且支持一些高级的操作,例如predicate push down
Flink目前还依赖map/reduce InputFormat来做数据源聚合。

Iterative processing

spark对机器学习的支持较好,因为可以在spark中利用内存cache来加速机器学习算法。但是大部分机器学习算法其实是一个有环的数据流,但是在spark中,实际是用无环图来表示的,一般的分布式处理引擎都是不鼓励试用有环图的。
flink支持在runtime中的有环数据流,这样表示机器学习算法更有效而且更有效率。

结论: 目前Spark相比Flink是一个更为成熟的计算框架,但是Flink的很多思路很不错,Spark社区也意识到了这一点,并且逐渐在采用Flink中的好的设计思路,所以学习一下Flink能让你了解一下Streaming这方面的更迷人的思路。

Kudu:

Kudu的定位是提供”fast analytics on fast data”,也就是在快速更新的数据上进行快速的查询。它定位OLAP和少量的OLTP工作流,如果有大量的random accesses,官方建议还是使用HBase最为合适。

kylin

hadoop上的cube

Impala:

Impala是架构于Hadoop之上的开源、高并发的MPP查询引擎,被广泛应用于各种行业。Impala是完全集成的,用以平衡Hadoop的灵活性和可扩展性,为BI/数据分析师提供低延迟、高并发的以读为主的查询。
它将传统分析数据库的SQL支持和多用户性能与Hadoop的灵活性和可扩展性结合起来,它通过利用HDFS、HBase、Metastore、YARN、Sentry等标准组件能够读取大多数广泛使用的文件格式比如Parquet、Avro、RCFile来维护Hadoop的灵活性;为了降低延迟,避免利用MR或者读远程数据,基于负责查询执行所有方面、作为Hadoop基础设施一部分运行于各台服务器上的Deamon进程实现了一个分布式架构,在相同负载的情形下其性能相当或超过了商用MPP分析数据库。

参考资料:
新一代大数据处理引擎 Apache Flink
Apache流计算框架详细对比
Introduction Into Distributed Real-Time Stream Processing
大数据分析界的“神兽”Apache Kylin有多牛
Kudu:支持快速分析的新型Hadoop存储系统

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
目录
相关文章
|
3月前
|
消息中间件 NoSQL 数据处理
如何进行实时数据处理:技术深度剖析
【8月更文挑战第25天】实时数据处理是现代企业不可或缺的能力之一,它要求系统具备高吞吐量、低延迟、高可用性和可扩展性。通过合理的架构设计、技术选型和持续优化,可以构建出满足业务需求的实时数据处理系统。未来,随着技术的不断进步和应用场景的不断拓展,实时数据处理将在更多领域发挥重要作用。
|
4月前
|
存储 数据可视化 数据挖掘
实时数据分析系统的构建与优化
【7月更文挑战第29天】实时数据分析系统的构建与优化是一个复杂而细致的过程,需要从需求分析、数据源确定、数据采集与传输、数据处理与分析、数据存储、数据可视化、系统部署与配置、监控与优化等多个方面进行综合考虑。通过选择合适的技术栈和优化策略,可以构建出高效、稳定的实时数据分析系统,为企业决策提供强有力的支持。
|
存储 数据处理 数据库
TDengine 用户案例合集 | 智能环保项目的时序数据处理难点与优化实践
本篇文章汇总了三个典型的智能环保项目的数据架构升级实践,给有需要的企业参考。
222 1
|
6月前
|
数据采集 存储 传感器
浅谈数据采集的难点|大规模数据采集首选的电商API接口
在当今的制造业领域,数据采集是一个难点。很多企业的生产数据采集主要依靠传统的手工作业方式,采集过程中容易出现人为的记录错误且效率低下。 有些企业虽然引进了相关技术手段,并且应用了数据采集系统,但是由于系统本身的原因以及企业没有选择最适合自己的数据采集系统,因此也无法实现信息采集的实时性、精确性和延伸性管理,各单元出现了信息断层的现象。
|
6月前
|
存储 消息中间件 SQL
分钟级实时数据分析的背后——实时湖仓产品解决方案
袋鼠云在结合当前数据湖技术的基础上,建设实时湖仓平台,满足客户“快、精、准”的数据需求。本文将详细介绍实时湖仓产品解决方案,让企业能够更专注地去解决他们的业务价值。
150 0
|
分布式计算 数据可视化 数据挖掘
06 离线数据分析流程介绍
06 离线数据分析流程介绍
93 0
|
数据采集 SQL 数据可视化
人人都会点数据分析 | 了解数据分析的整体流程
人人都会点数据分析 | 了解数据分析的整体流程
154 0
|
数据挖掘
【数据分析】:搭建数据分析业务工作流程
【数据分析】:搭建数据分析业务工作流程
【数据分析】:搭建数据分析业务工作流程
|
消息中间件 SQL 运维
如何设计实时数据平台(技术篇)
本文从技术角度入手,介绍RTDP的技术选型和相关组件,探讨适用不同应用场景的相关模式。
|
数据挖掘 Python
自动化数据分析框架比较-EDA Is All You Need
在本文章,我们主要给大家介绍一些顶级的自动化EDA工具,并且通过实例来展示具体效果。 代码链接:https://www.kaggle.com/andreshg/automatic-eda-libraries-comparisson/notebook
219 0
自动化数据分析框架比较-EDA Is All You Need
下一篇
无影云桌面