【Flink】(四)详解 Flink 中的窗口(Window)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 【Flink】(四)详解 Flink 中的窗口(Window)

文章目录


一、Window

1.1 Window 概述

1.2 Window 类型

0. TimeWindow 三类

1. 滚动窗口(Tumbling Windows)

2. 滑动窗口(Sliding Windows)

3. 会话窗口(Session Windows)


二、Window API

2.1 TimeWindow

1. 滚动窗口

2. 滑动窗口(SlidingEventTimeWindows)

2.2 CountWindow

1. 滚动窗口

2. 滑动窗口

2.3 窗口函数 (window function)

2.4 其它可选 API


一、Window


1.1 Window 概述

streaming 流式计算是一种被设计用于处理无限数据集的数据处理引擎,而无限数据集是指一种不断增长的本质上无限的数据集,而 window 是一种切割无限数据为有限块进行处理的手段。


image.png


Window 是无限数据流处理的核心,Window 将一个无限的 stream 拆分成有限大小的“buckets”桶,我们可以在这些桶上做计算操作。


1.2 Window 类型


Window 可以分成两类:


CountWindow:按照指定的数据条数生成一个 Window,与时间无关。

TimeWindow:按照时间生成 Window。


0. TimeWindow 三类


对于 TimeWindow,可以根据窗口实现原理的不同分成三类:滚动窗口(Tumbling

Window)、滑动窗口(Sliding Window)和会话窗口(Session Window)。


1. 滚动窗口(Tumbling Windows)


将数据依据固定的窗口长度对数据进行切片。


特点:时间对齐,窗口长度固定,没有重叠。


滚动窗口分配器将每个元素分配到一个指定窗口大小的窗口中,滚动窗口有一个固定的大小,并且不会出现重叠。例如:如果你指定了一个 5 分钟大小的滚动窗口,窗口的创建如下图所示:


image.png


适用场景:适合做 BI 统计等(做每个时间段的聚合计算)。


2. 滑动窗口(Sliding Windows)


滑动窗口是固定窗口的更广义的一种形式,滑动窗口由固定的窗口长度和滑动间隔组成。


特点:时间对齐,窗口长度固定,可以有重叠。


滑动窗口分配器将元素分配到固定长度的窗口中,与滚动窗口类似,窗口的大小由窗口大小参数来配置,另一个窗口滑动参数控制滑动窗口开始的频率。因此,滑动窗口如果滑动参数小于窗口大小的话,窗口是可以重叠的,在这种情况下元素会被分配到多个窗口中。


例如,你有 10 分钟的窗口和 5 分钟的滑动,那么每个窗口中 5 分钟的窗口里包含着上个 10 分钟产生的数据,如下图所示:


image.png


适用场景:对最近一个时间段内的统计(求某接口最近 5min 的失败率来决定是否要报警)。


3. 会话窗口(Session Windows)


由一系列事件组合一个指定时间长度的 timeout 间隙组成,类似于 web 应用的session,也就是一段时间没有接收到新数据就会生成新的窗口。


特点:时间无对齐。


session 窗口分配器通过 session 活动来对元素进行分组,session 窗口跟滚动窗口和滑动窗口相比,不会有重叠和固定的开始时间和结束时间的情况,相反,当它在一个固定的时间周期内不再收到元素,即非活动间隔产生,那个这个窗口就会关闭。一个 session 窗口通过一个 session 间隔来配置,这个 session 间隔定义了非活跃周期的长度,当这个非活跃周期产生,那么当前的 session 将关闭并且后续的元素将被分配到新的 session 窗口中去。


image.png


二、Window API


2.1 TimeWindow


TimeWindow 是将指定时间范围内的所有数据组成一个 window,一次对一个 window 里面的所有数据进行计算。


1. 滚动窗口


Flink 默认的时间窗口根据 Processing Time 进行窗口的划分,将 Flink 获取到的

数据根据进入 Flink 的时间划分到不同的窗口中。


val minTempPerWindow = dataStream
  .map(r => (r.id, r.temperature))
  .keyBy(_._1)
  .timeWindow(Time.seconds(15))
  .reduce((r1, r2) => (r1._1, r1._2.min(r2._2)))


时间间隔可以通过 Time.milliseconds(x),Time.seconds(x),Time.minutes(x)等其

中的一个来指定。


2. 滑动窗口(SlidingEventTimeWindows)


滑动窗口和滚动窗口的函数名是完全一致的,只是在传参数时需要传入两个参数,一个是 window_size,一个是 sliding_size。


下面代码中的 sliding_size 设置为了 5s,也就是说,窗口每 5s 就计算一次,每一次计算的 window 范围是 15s 内的所有元素。


val minTempPerWindow: DataStream[(String, Double)] = dataStream
  .map(r => (r.id, r.temperature))
  .keyBy(_._1)
  .timeWindow(Time.seconds(15), Time.seconds(5))
  .reduce((r1, r2) => (r1._1, r1._2.min(r2._2)))
  .window(EventTimeSessionWindows.withGap(Time.minutes(10))


时间间隔可以通过 Time.milliseconds(x),Time.seconds(x),Time.minutes(x)等其中的一个来指定。


2.2 CountWindow


CountWindow 根据窗口中相同 key 元素的数量来触发执行,执行时只计算元素数量达到窗口大小的 key 对应的结果。


注意:CountWindow 的 window_size 指的是相同 Key 的元素的个数,不是输入的所有元素的总数。


1. 滚动窗口


默认的 CountWindow 是一个滚动窗口,只需要指定窗口大小即可,当元素数量达到窗口大小时,就会触发窗口的执行。


val minTempPerWindow: DataStream[(String, Double)] = dataStream
 .map(r => (r.id, r.temperature))
 .keyBy(_._1)
 .countWindow(5)
  .reduce((r1, r2) => (r1._1, r1._2.max(r2._2)))


2. 滑动窗口


滑动窗口和滚动窗口的函数名是完全一致的,只是在传参数时需要传入两个参数,一个是 window_size,一个是 sliding_size。


下面代码中的 sliding_size 设置为了 2,也就是说,每收到两个相同 key 的数据就计算一次,每一次计算的 window 范围是 5 个元素。


val keyedStream: KeyedStream[(String, Int), Tuple] = dataStream.map(r => 
(r.id, r.temperature)).keyBy(0)
//每当某一个 key 的个数达到 2 的时候,触发计算,计算最近该 key 最近 10 个元素的内容
val windowedStream: WindowedStream[(String, Int), Tuple, GlobalWindow] = 
keyedStream.countWindow(10,2)
val sumDstream: DataStream[(String, Int)] = windowedStream.sum(1)

2.3 窗口函数 (window function)


window function 定义了要对窗口中收集的数据做的计算操作,主要可以分为两类:


增量聚合函数(incremental aggregation functions)

每条数据到来就进行计算,保持一个简单的状态。典型的增量聚合函数有

ReduceFunction \ AggregateFunction。


全窗口函数(full window functions)

先把窗口所有数据收集起来,等到计算的时候会遍历所有数据。

ProcessWindowFunction 就是一个全窗口函数。


2.4 其它可选 API


  • .trigger() —— 触发器

定义 window 什么时候关闭,触发计算并输出结果


  • .evitor() —— 移除器

定义移除某些数据的逻辑


  • .allowedLateness() —— 允许处理迟到的数据


  • .sideOutputLateData() —— 将迟到的数据放入侧输出流


  • .getSideOutput() —— 获取侧输出流


20200510111033658.png



相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
目录
相关文章
|
7天前
|
自然语言处理 监控 数据挖掘
【Flink】Flink中的窗口分析
【4月更文挑战第19天】【Flink】Flink中的窗口分析
|
3月前
|
流计算 Windows
Flink窗口与状态编程开发(一)
Flink窗口与状态编程开发(一)
|
4月前
|
流计算
Flink窗口——window
Flink窗口——window
24 0
|
3天前
|
BI API 流计算
[实时流基础 flink] 窗口
[实时流基础 flink] 窗口
|
2月前
|
SQL Oracle 算法
Flink CDC 数据源问题之不支持窗口聚合如何解决
Flink CDC数据源指的是使用Apache Flink的CDC特性来连接并捕获外部数据库变更数据的数据源;本合集将介绍如何配置和管理Flink CDC数据源,以及解决数据源连接和同步过程中遇到的问题。
44 0
|
3月前
|
监控 Java 流计算
Flink中的窗口操作是什么?请解释其作用和使用场景。
Flink中的窗口操作是什么?请解释其作用和使用场景。
26 0
|
3月前
|
SQL 自然语言处理 机器人
Flink sql滚动窗口怎么操作能实现stream里的allowlateness?
【1月更文挑战第3天】【1月更文挑战第12篇】Flink sql滚动窗口怎么操作能实现stream里的allowlateness?
55 1
|
4月前
|
数据安全/隐私保护 流计算
Flink的Interval Join是基于水印(Watermark)和时间窗口(Time Window)实现的
Flink的Interval Join是基于水印(Watermark)和时间窗口(Time Window)实现的
94 2
|
4月前
|
SQL 存储 缓存
Flink(八)【窗口】
Flink(八)【窗口】
|
5月前
|
消息中间件 分布式计算 Kafka
将Apache Flink任务实时消费Kafka窗口的计算改为MaxCompute
将Apache Flink任务实时消费Kafka窗口的计算改为MaxCompute
77 6