大数据-121 - Flink Time Watermark 详解 附带示例详解

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 大数据-121 - Flink Time Watermark 详解 附带示例详解

点一下关注吧!!!非常感谢!!持续更新!!!

目前已经更新到了:

Hadoop(已更完)

HDFS(已更完)

MapReduce(已更完)

Hive(已更完)

Flume(已更完)

Sqoop(已更完)

Zookeeper(已更完)

HBase(已更完)

Redis (已更完)

Kafka(已更完)

Spark(已更完)

Flink(正在更新!)

章节内容

上节我们完成了如下的内容:


滑动窗口:时间驱动、事件驱动

会话窗口:时间驱动、事件驱动

Time

Flink的流式处理中,会涉及到时间的不同概念, 如下图所示:

EventTime[事件时间]:事件发生的时间,例如:点击网站上的某个链接的时间,每一条日志都会记录自己的生成时间,如果EventTime为基准来定义时间窗口那将形成EventTimeWindow,要求消息本身就应该携带EventTime

IngestionTime[摄入时间]:数据进入Flink时间,如某个Flink节点SourceOperator接收到数据的时间,例如:某个Source消费到Kafka中的数据,如果以IngesingTime为基准来定义时间窗口那将形成IngestingTimeWindow,以Source的SystemTime为准

ProcessingTime[处理时间]:某个Flink节点执行某个Operation的时间,例如:TimeWindow处理数据时的系统时间,默认时间的属性就是ProcessingTime。如果以ProcessingTime基准来定义时间窗口将形成ProcessingTimeWindow,以Operator的SystemTime为准

在Flink的流式处理中,绝大部分的业务都会使用EventTime,一般只在EventTime无法使用时,才会被迫使用ProcessingTime或者IngestionTime。

如果使用EventTime,那么需要引入EventTime的事件属性,引入方式如下所示:

# 设置使用事件时间
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)

基本概念

在 Apache Flink 中,Time Watermark(时间水印)是处理事件时间(Event Time)流处理的核心概念之一。它用于解决乱序事件的问题,帮助系统正确地按照事件发生的时间顺序进行处理。下面是详细解释:


事件时间(Event Time)和处理时间(Processing Time)

事件时间(Event Time):事件生成时所关联的时间戳。例如,一条日志记录的生成时间。

处理时间(Processing Time):事件到达 Flink 处理节点时的时间。这取决于系统的时间。

在实际的流处理中,事件的到达顺序可能会与它们的事件时间不一致,因为网络延迟、分布式系统等原因导致事件乱序。因此,使用事件时间而非处理时间来处理流数据更能准确反映数据的真实生成顺序。


乱序事件

乱序事件指的是数据流中的事件没有按照事件时间的顺序进入流处理系统。例如,事件A的事件时间是 12:00:01,事件B是 12:00:02,但事件B可能会比事件A先到达处理系统。


为了处理这种乱序问题,Flink 引入了 Watermark 机制。


什么是 Watermark

Watermark 是一个特殊的标志,它用于告诉 Flink 数据流中事件的进展情况。简单来说,Watermark 是 Flink 中估计的“当前时间”,表示所有早于该时间戳的事件都已经到达。


Watermark 的定义

Flink 认为当前时间在 Watermark 时间戳之前的所有事件已经接收完毕,不再期待有早于该时间戳的事件。

当 Watermark 时间戳更新时,系统可以触发基于事件时间的窗口操作,比如窗口计算、聚合等。

示例: 假设 Watermark 当前的值是 12:00:00,那么 Flink 认为 12:00:00 之前的事件已经全部到达,不会再有更早的事件来临。这时系统可以处理 12:00:00 之前的事件并触发窗口计算。


Watermark 生成方式

Watermark 可以通过自定义来生成,也可以使用内置策略。在常见情况下,Watermark 生成方式有两种:


a. 固定延迟策略(Fixed Delay)

最简单的 Watermark 生成方式是引入固定的延迟。例如,假设延迟 5 秒生成 Watermark,那么每个事件时间戳减去 5 秒就是当前的 Watermark。


b. 周期性生成 Watermark

Flink 允许 Watermark 定期生成,可以通过定期检查数据流中的最大时间戳来生成新的 Watermark。


数据延迟问题

示例1

现在假设,你正在去往地下停车场的路上,并且打算用手机点一份外卖。

选好了外卖之后,你就用在线支付功能付款了,这个时候是 11点50分。

但是这时,你走进了地下停车库,而这里没有手机信号,因此外卖的在线支付并没有立刻成功,而支付系统一直在Retry这个操作。

当你找到了自己的车并开出停车场的时候,已经是 12点05分了,而支付数据的处理时间是 12点05 分。

一般在实际开发中会以事件时间作为计算标准。


示例2

一条日志进入Flink的事件为 2024-07-27 10:00:01 摄入时间

到达Window系统的时间是 2024-07-27 10:00:02 处理时间

日志内容为:2024-07-27 09:59:5- INFO Fail Over 事件时间

对于业务来说,要统计1小时内的故障日志的个数,哪个时间最有意义?当然是事件时间。

EventTime,因为我们要根据日志的生成时间进行统计。

示例3

某APP记录用户的所有点击行为,并回传日志,(在网络不好的情况下,先保存本地,延后回传)。

A用户在 11:02 对APP进行操作,B用户在 11:03 操作了APP。

但是A用户的网络太不稳定,回传日志延迟了,导致我们服务端先接受到B的消息,再接收到A的消息,消息乱序了。


示例4

在实际环境中,经常会出现,因为网络原因,数据有可能会延迟一会儿才到达Flink实时处理系统,我们先来设想一下下面的场景:

使用时间窗口来统计10分钟内的用户流量

有一个时间窗口:开始时间 2024-07-27 10:00:00,结束时间 2024-07-27 10:10:00

有一个数据,因为网络延迟:事件发生的时间为:2024-07-27 10:10:00,但进入到窗口的事件为:2024-07-27 10:10:02 延迟2秒

这种处理方式,根据消息进入到Window时间,来进行计算,在网络有延迟的时候,会引起计算误差。


如何解决

使用水印来解决网络延迟的问题。

通过上面的例子,我们知道,在进行数据处理的时候应该按照事件时间进行处理,也就是窗口应该要考虑到事件时间。

但是窗口不能无限的一直等待延迟数据的到来,需要有一个触发窗口计算的进制,也就是我们接下来要学的Watermark水位线/水印机制。


WaterMark

水印(Watermark)就是一个时间戳,Flink可以给数据流添加水印,可以理解为:


收到一条消息后,额外给这个消息添加一个时间字段,这就是添加水印。

水印并不影响原有EventTime事件时间

当数据流添加水印后,按照水印时间来触发窗口计算:也就是Watermark水印是用来触发窗口计算的

一般会设置水印时间,比事件时间小几秒钟,表示最大允许数据延迟到达多久(即水印时间 = 事件时间 - 允许延迟时间)

当接收到的 水印时间 >= 窗口结束时间,则触发计算,如等到一条数据的水印时间为 10:10:03 >= 10:10:00 才触发计算,也就是要等到事件为 10:10:03的数据到来才触发计算

解决总结

Watermark是用来解决延迟数据的问题,如窗口:10:00:00 ~ 10:10:00

而数据到达的顺序是:A 10:10:00,B 10:09:58

如果没有Watermark,那么A数据将会触发窗口计算,B数据来了窗口已经关闭,则该数据丢失。

如果有了 Watermark,设置允许数据迟到的阈值为3秒。

那么该窗口的结束条件则为水印:水印时间 >= 窗口结束时间 10:10:00,也就是需要一条数据的水印事件=10:10:00

而水印时间10:10:00 = 事件时间 - 延迟时间 3 秒

也就是需要有一条事件为10:10:03的数据到来,才会触发真正的计算。

而上面的A 10:10:00,B 10:09:58 都不会触发计算,也就是会被窗口包含,直到10:10:03的数据到来才会计算窗口 10:00:00 - 10:10:00 的数据。


Watermark

实现步骤

获取数据源

转化

声明水印(Watermark)

分组聚合,调用Window操作

保存处理结果

注意事项

当使用 EventTimeWindow时,所有的Window在EventTime的时间轴上进行划分,也就是说,在Window启动后,会根据初始的EventTime时间每隔一段时间划分一个窗口,如果Window大小是3秒,那么1分钟内会把Window划分为如下的形式:

[00:00:00,00:00:03)
[00:00:03,00:00:06)
[00:00:03,00:00:09)
[00:00:03,00:00:12)
[00:00:03,00:00:15)
[00:00:03,00:00:18)
[00:00:03,00:00:21)
[00:00:03,00:00:24)

窗口是左闭右开,形式为为:[window_start_time, window_end_time)

Window的设定基于第一条消息的事件时间,也就是说,Window会一直按照指定的时间间隔进行划分,不论这个Window中没有数据,EventTime 在这个Window期间的数据会进入这个Window

Window会不断产生,属于这个Window范围的数据会不断加入到Window中,所有未被触发的Window都会等待出发,只要Window还没出发,属于这个Window范围的数据就会一直被加入到Window中,直到Window被处罚才会停止数据的追加,而当Window触发之后才接收到属于被触发Window的数据会被丢弃。

Window会在以下的条件满足时才会被处罚执行:(1)在[window_start_time, window_end_time)窗口中有数据存在,(2)Watermark时间 >= window_end_time

一般会设置水印时间,比事件时间小几秒钟,表示最大允许数据延迟到达是多久:水印时间=事件时间-允许延迟时间。

当接收到水印时间 >= 窗口结束时间 且 窗口内有数据,则触发计算:事件时间 - 允许延迟时间 >= 窗口结束时间 或 事件时间 >= 窗口结束时间 + 允许延迟时间


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
9天前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
37 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
1月前
|
分布式计算 监控 大数据
大数据-131 - Flink CEP 案例:检测交易活跃用户、超时未交付
大数据-131 - Flink CEP 案例:检测交易活跃用户、超时未交付
64 0
|
10天前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
41 1
|
1月前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
53 1
|
29天前
|
消息中间件 分布式计算 Kafka
大数据平台的毕业设计02:Spark与实时计算
大数据平台的毕业设计02:Spark与实时计算
|
30天前
|
SQL 运维 大数据
大数据实时计算产品的对比测评
在使用多种Flink实时计算产品后,我发现Flink凭借其流批一体的优势,在实时数据处理领域表现出色。它不仅支持复杂的窗口机制与事件时间处理,还具备高效的数据吞吐能力和精准的状态管理,确保数据处理既快又准。此外,Flink提供了多样化的编程接口和运维工具,简化了开发流程,但在界面友好度上还有提升空间。针对企业级应用,Flink展现了高可用性和安全性,不过价格因素可能影响小型企业的采纳决策。未来可进一步优化文档和自动化调优工具,以提升用户体验。
109 0
|
1月前
|
SQL 大数据 API
大数据-132 - Flink SQL 基本介绍 与 HelloWorld案例
大数据-132 - Flink SQL 基本介绍 与 HelloWorld案例
43 0
|
1月前
|
SQL 消息中间件 分布式计算
大数据-130 - Flink CEP 详解 - CEP开发流程 与 案例实践:恶意登录检测实现
大数据-130 - Flink CEP 详解 - CEP开发流程 与 案例实践:恶意登录检测实现
37 0
|
消息中间件 传感器 NoSQL
大数据——Flink学习
1. Flink简介
1114 0
大数据——Flink学习
|
2月前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。

热门文章

最新文章

下一篇
无影云桌面