一文初识大数据Flink框架

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 一文初识大数据Flink框架

什么是Flink

🍊Apache Flink是一个开源的分布式流处理框架,用于处理流数据和批量数据。它可以在一个单独的机器或一个集群上运行,并具有高效的数据处理能力,特别是对于大规模数据集。

Apache Flink 是一个流行的开源平台,用于分布式流和批处理数据。它经常与其他大数据处理框架(如 Apache Spark 和 Apache Beam)进行比较。

🍊Flink提供了一个灵活的编程模型,可以轻松地执行数据流分析,包括数据流聚合,数据流连接,流式转换和多种数据流操作。它还提供了丰富的算子库,可以执行常见的流处理任务,如窗口聚合,Join和流式聚合。

🍊Flink还提供了一个容错的流处理运行时系统,可以保证数据的准确性,即使在发生故障时也能保证最终一致性。

🍊在流行度和采用率方面,Flink 一直位居大数据处理框架的前列。Flink 拥有庞大而活跃的开发者和用户社区,广泛应用于各种用例的生产环境。

🍊值得注意的是,大数据处理框架的选择往往取决于项目的具体要求和需求。不同的框架可能具有不同的优势和权衡,并且针对特定用例的最佳选择可能会有所不同。

🍊Flink 因其处理大规模数据处理和实时分析的能力而广受推崇,并被各行各业的公司所采用。73d8c9be8b2a4960a39693770de0ac9a.png

flink在github上的现状

      截止到2022-12-19,flink在github上有3w多次commits,2w多start,1000多名提交者73d8c9be8b2a4960a39693770de0ac9a.png

flink发展历史

      flink有着丰富的发展和演化历史。下面简单介绍一下 Flink 发展过程中的关键里程碑:

Flink 最初于 2009 年在柏林工业大学开发,作为名为 Stratosphere 的研究项目的一部分。

2013 年,Stratosphere 在 Apache License 下开源为 Flink。

2015 年,Flink 成为 Apache 软件基金会的顶级项目。

在接下来的几年里,Flink 的用户群和社区有了显着增长,并不断增加新的特性和功能。

2020 年,随着 Flink 1.11 的发布,Flink 达到了一个重要的里程碑,其中包括许多重大改进,例如新的批处理 SQL API 和改进的机器学习支持。

今天,Flink 是一个被广泛使用和推崇的流处理框架,拥有庞大而活跃的用户和开发者社区。它用于各种应用程序,包括实时分析、流处理、事件驱动的应用程序等。

flink能做什么

      flink可以用于各种数据流应用程序。下面是一些典型的Flink应用程序:

实时数据分析:Flink可以实时处理数据流,并执行复杂的数据流分析操作,如窗口聚合,Join和流式聚合。

数据流计算:Flink可以实时处理数据流,并执行计算任务,如计算滑动平均值,检测异常值等。

数据流ETL:Flink可以将数据从一个源头转换为另一个格式,并将其写入目标系统。

实时规则引擎:Flink可以执行复杂的规则匹配和决策操作,用于实时流式决策。

实时监控:Flink可以监控实时数据流,并在发现异常时发出警报。

聊天机器人:Flink可以处理实时聊天数据流,并使用机器学习算法生成自然语言回复。

总的来说,Flink支持各种数据流应用程序,可以帮助您快速开发和部署高性能的流处理系统。

flink 的高并发能力

       Flink 旨在处理高吞吐量、低延迟的数据处理,并且对数据流的并发处理有强大的支持。

      有助于 Flink 高并发能力的一些特性包括:

数据并行性:Flink 允许数据流自动并行化并由多个并行实例处理,这些实例可以扩展以处理非常大的数据量。

任务并行性:Flink 允许任务在并行数据流中并行化,这可以进一步提高并发性和吞吐量。

异步 I/O:Flink 使用异步 I/O 来读写数据流,这使得它可以扩展到高并发级别,而不受外部系统性能的限制。

状态管理:Flink 有一个健壮的状态管理系统,即使在高并发的情况下,它也可以维护有状态的流处理应用程序。

     Flink支持多种并发模型,包括:

一些计算框架对比图

产品 模型 API 保证次数 容错机制 状态管理 延时 吞吐量
storm Native(数据进入立即处理) 组合式 At-least-once Record ACKS Low Low
Trident mirco-batching(划分为小批处理) 组合式 Exectly-once Record ACKs 基于操作(每次操作由一个状态) Medium Medium
Spark streaming mirco-batching 声明式(提供封装后的高阶函数) Exectly-once RDD Checkpoint 基于 DStream Medium High
Flink Native 声明式 Exectly-once Checkpoint 基于操作 Low High

flink发展方向

Flink 正在积极开发和改进的一些领域包括:

性能和可扩展性:Flink 旨在处理数据流的高吞吐量和低延迟处理,开发团队一直致力于提高其性能和可扩展性。

生态系统集成:Flink 拥有丰富的库和连接器生态系统,使其能够与广泛的其他工具和技术集成。开发团队正在努力进一步扩展和改进这些集成。

机器学习和人工智能:Flink 内置了对机器学习的支持,可用于构建复杂的人工智能应用程序。开发团队正在努力改进这种支持,并使使用 Flink 构建 AI 应用程序变得更加容易。

云和容器部署:Flink 可以部署在各种基础设施上,包括本地、云端和容器中。开发团队正在努力提高 Flink 在这些环境中的部署和管理的便利性。

用户体验:开发团队专注于提高 Flink 的可用性和用户体验,包括让流处理应用程序更容易上手和使用 Flink。

flink生态体系

Apache Flink 拥有丰富的库和连接器生态系统,使其能够与各种其他工具和技术集成。Flink 生态系统的一些示例包括:

Flink 连接器:Flink 有许多连接器,可以轻松与外部系统集成,例如 Apache Kafka、Apache Cassandra 和 Amazon Kinesis。这些连接器允许 Flink 从这些系统中获取数据并实时处理。

Flink 库:Flink 包括许多库,它们为特定用例提供额外的功能,例如机器学习、图形处理和窗口流处理。

Flink 集成:Flink 可以轻松地与其他工具和技术集成,例如 Apache Hadoop、Apache Spark 和 Apache Beam。这使得 Flink 可以用作更大的数据处理管道或生态系统的一部分。

Flink 社区:Flink 拥有庞大而活跃的用户和开发人员社区,他们为框架的开发做出贡献,并为 Flink 生态系统贡献库、连接器和集成。

~~下述内容为官方文档中内容 ~~

处理无界和有界数据

任何类型的数据都是作为事件流产生的。信用卡交易、传感器测量、机器日志或网站或移动应用程序上的用户交互,所有这些数据都以流的形式生成。

数据可以作为无界有界流进行处理。

无界流有一个开始但没有定义的结束。它们不会在数据生成时终止并提供数据。无界流必须连续处理,即事件必须在摄取后立即处理。不可能等待所有输入数据到达,因为输入是无界的,不会在任何时间点完成。处理无限数据通常需要按特定顺序摄取事件,例如事件发生的顺序,以便能够推断结果的完整性。

有界流有定义的开始和结束。可以通过在执行任何计算之前摄取所有数据来处理有界流。处理有界流不需要有序摄取,因为有界数据集总是可以排序的。有界流的处理也称为批处理。73d8c9be8b2a4960a39693770de0ac9a.png

**Apache Flink 擅长处理无界和有界数据集。**对时间和状态的精确控制使 Flink 的运行时能够在无界流上运行任何类型的应用程序。有界流由专门为固定大小的数据集设计的算法和数据结构进行内部处理,从而产生出色的性能。

通过探索构建在 Flink 之上的用例来说服自己。

随处部署应用程序

Apache Flink 是一个分布式系统,需要计算资源才能执行应用程序。Flink 集成了所有常见的集群资源管理器,例如Hadoop YARNKubernetes,但也可以设置为作为独立集群运行。

Flink 旨在很好地运行前面列出的每个资源管理器。这是通过特定于资源管理器的部署模式实现的,这些部署模式允许 Flink 以其惯用的方式与每个资源管理器进行交互。

在部署 Flink 应用时,Flink 会根据应用配置的并行度自动识别需要的资源,并向资源管理器请求。如果发生故障,Flink 会通过请求新资源来替换发生故障的容器。提交或控制应用程序的所有通信都是通过 REST 调用进行的。这简化了 Flink 在许多环境中的集成。

运行任何规模的应用程序

Flink 旨在运行任何规模的有状态流应用程序。应用程序被并行化为可能在集群中分布和并发执行的数千个任务。因此,应用程序可以利用几乎无限数量的 CPU、主内存、磁盘和网络 IO。此外,Flink 可以轻松维护非常大的应用程序状态。其异步和增量检查点算法可确保对处理延迟的影响最小,同时保证恰好一次的状态一致性。

用户报告了在其生产环境中运行的 Flink 应用程序的可扩展性数字,例如

应用程序每天处理数万亿个事件,

维护多个 TB 状态的应用程序,以及

在数千个内核上运行的应用程序。

利用内存性能

有状态 Flink 应用程序针对本地状态访问进行了优化。任务状态始终保存在内存中,或者,如果状态大小超过可用内存,则保存在访问高效的磁盘数据结构中。因此,任务通过访问本地(通常是内存中的)状态来执行所有计算,从而产生非常低的处理延迟。Flink 通过定期和异步地将本地状态检查点到持久存储来保证在发生故障时恰好一次的状态一致性。73d8c9be8b2a4960a39693770de0ac9a.png

相关文章
|
3月前
|
消息中间件 Kafka Apache
Apache Flink 是一个开源的分布式流处理框架
Apache Flink 是一个开源的分布式流处理框架
593 5
|
12天前
|
SQL 大数据 数据处理
[AIGC大数据基础] Flink: 大数据流处理的未来
[AIGC大数据基础] Flink: 大数据流处理的未来
|
22天前
|
运维 监控 Java
面经:Storm实时计算框架原理与应用场景
【4月更文挑战第11天】本文是关于Apache Storm实时流处理框架的面试攻略和核心原理解析。文章分享了面试常见主题,包括Storm的架构与核心概念(如Spout、Bolt、Topology、Tuple和Ack机制),编程模型与API,部署与运维,以及应用场景与最佳实践。通过代码示例展示了如何构建一个简单的WordCountTopology,强调理解和运用Storm的关键知识点对于面试和实际工作的重要性。
32 4
面经:Storm实时计算框架原理与应用场景
|
24天前
|
机器学习/深度学习 分布式计算 BI
Flink实时流处理框架原理与应用:面试经验与必备知识点解析
【4月更文挑战第9天】本文详尽探讨了Flink实时流处理框架的原理,包括运行时架构、数据流模型、状态管理和容错机制、资源调度与优化以及与外部系统的集成。此外,还介绍了Flink在实时数据管道、分析、数仓与BI、机器学习等领域的应用实践。同时,文章提供了面试经验与常见问题解析,如Flink与其他系统的对比、实际项目挑战及解决方案,并展望了Flink的未来发展趋势。附带Java DataStream API代码样例,为学习和面试准备提供了实用素材。
81 0
|
2月前
|
SQL API 数据处理
新一代实时数据集成框架 Flink CDC 3.0 —— 核心技术架构解析
本文整理自阿里云开源大数据平台吕宴全关于新一代实时数据集成框架 Flink CDC 3.0 的核心技术架构解析。
761 0
新一代实时数据集成框架 Flink CDC 3.0 —— 核心技术架构解析
|
3月前
|
SQL 大数据 API
大数据技术之Flink---day01概述、快速上手
大数据技术之Flink---day01概述、快速上手
|
3月前
|
SQL 并行计算 大数据
【大数据技术攻关专题】「Apache-Flink零基础入门」手把手+零基础带你玩转大数据流式处理引擎Flink(基础加强+运行原理)
关于Flink服务的搭建与部署,由于其涉及诸多实战操作而理论部分相对较少,小编打算采用一个独立的版本和环境来进行详尽的实战讲解。考虑到文字描述可能无法充分展现操作的细节和流程,我们决定以视频的形式进行分析和介绍。因此,在本文中,我们将暂时不涉及具体的搭建和部署步骤。
498 3
【大数据技术攻关专题】「Apache-Flink零基础入门」手把手+零基础带你玩转大数据流式处理引擎Flink(基础加强+运行原理)
|
4月前
|
弹性计算 大数据 调度
Flink中Mesos在大数据领域中使用较多
【1月更文挑战第19天】【1月更文挑战第92篇】Flink中Mesos在大数据领域中使用较多
35 1
|
4月前
|
API Apache 数据库
Flink CDC 3.0 正式发布,详细解读新一代实时数据集成框架
Flink CDC 3.0 正式发布,详细解读新一代实时数据集成框架
227 0
|
4月前
|
人工智能 自然语言处理 大数据
AI大数据智能导诊系统源码 Springboot框架
智能导诊系统是在医院中使用的引导患者自助就诊挂号,在就诊的过程中有许多患者不知道需要挂什么号,要看什么病,通过智慧导诊系统,可输入自身疾病的症状表现,或选择身体部位,再经由智能导诊系统多维度计算,AI智能引擎分析、准确推荐科室,引导患者挂号就诊,实现科学就诊,不用担心挂错号。
60 0