Flink Table/SQL API 规划 —— Dynamic Table

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 动态表直观上看是一个类似于数据库中的`Materialized View`概念。动态表随着时间改变;类似静态的batch table一样可以用标准SQL进行查询然后一个新的动态表;可以和流无损地互相转换(对偶的)。
动态表的概念是社区很早就提出的但并没有全部实现下文中所有介绍都是基于已有规划和proposal给出的,可能与之后实现存在出入仅供参考

概念

动态表直观上看是一个类似于数据库中的Materialized View概念。动态表随着时间改变;类似静态的batch table一样可以用标准SQL进行查询然后一个新的动态表;可以和流无损地互相转换(对偶的)。对现有的API最大的改进关键在表的内容随着时间改变,而现在的状态只是append。当前的streaming table可以认为是一种动态表,append模式的动态表。

流到 Dynamic Table

流被转换成Table时决定选择哪种模式是依据表的schema是否定义primary key。

Append模式:

如果表的schema没有包括key的定义那转换成表时采用append模式。把流中每条新来的record当做新的row append到表中。一旦数据加到表中就不能再被更新和删除(指当前表中,不考虑转换成新表)。

Replace模式:

相对应,如果定义了key,那么对于流中的每条记录如果key不在表中就insert否则就update。

Dynamic Table 到 流

表到流的操作是把表的所有change以changelog stream的方式发送到下游。这一步也有两种模式。

Retraction模式:

traction模式中对于Dynamic Table的insert和delete的change分别产生insert或delete event。如果是update的change会产生两种change event,对于之前发送出去的同样key的record会产生delete event,对于当前的record是产生insert event。如下图所示:

Update模式:

update模式依赖Dynamic Table定义了key。所有的change event是一个kv对。key对应表的key在当前record中的值;对于insert和change value对应新的record。对于delete value是空表示该可以已经被删除。如下图所示:

example

表的内容随着时间改变意味着对表的query结果也是随着时间改变的。我们定义:

  • A[t]: 时间t时的表A
  • q(A[t]):时间t时对表A执行query q

举个例子来理解动态表的概念:

query的限制

由于流是无限的,相对应 Dynamic Table 也是无界的。当查询无限的表的时候我们需要保证query的定时是良好的,有意义可行的。

1.在实践中Flink将查询转换成持续的流式应用,执行的query仅针对当前的逻辑时间,所以不支持对于任意时间点的查询(A[t])。
2.最直观的原则是query可能的状态和计算必须是有界的,所以可以支持可增量计算的查询:

  • 不断更新当前结果的查询:查询可以产生insert,update和delete更改。查询可以表示为 Q(t+1) = q'(Q(t), c(T, t, t+1)),其中Q(t)是query q的前一次查询结果,c(T, t, t_+1) 是表T从t+1到t的变化, q'是q的增量版本。
  • 产生append-only的表,可以从输入表的尾端直接计算出新数据。查询可以表示为 Q(t+1) = q''(c(T, t-x, t+1)) ∪ Q(t),q''是不需要时间t时q的结果增量版本query q。c(T, t-x, t+1)是表T尾部的x+1个数据,x取决于语义。例如最后一小时的window aggregation至少需要最后一小时的数据作为状态。其他能支持的查询类型还有:单独在每一行上操作的SELECT WHERE;rowtime上的GROUP BY子句(比如基于时间的window aggregate);ORDER BY rowtime的OVER windows(row-windows);ORDER BY rowtime。
    3.当输入表足够小时,对表的每条数据进行访问。比如对两个大小固定的流表(比如key的个数固定)进行join。

中间状态有界

如上文所说的,某些增量查询需要保留一些数据(部分输入数据或者中间结果)作为状态。为了保证query不会失败,保证查询所需要的空间是有界的不随着时间无限增长很重要。主要有两个原因使得状态增长:

  1. 不受时间谓词约束的中间计算状态的增长(比如 聚合key的膨胀)
  2. 时间有界但是需要迟到的数据(比如 window 的聚合)

虽然第二种情况可有通过下文提到的"Last Result Offset"参数解决,但是第一种情况需要优化器检测。我们应该拒绝不受时间限制的中间状态增长的查询。优化器应该提供如何修复查询且要求有适当的时间谓词。比如下面这个查询:

SELECT user, page, COUNT(page) AS pCnt
FROM pageviews
GROUP BY user, page

随着用户数和页面数的增长,中间状态会数据随着时间推移而增长。对于存储空间的要求可以通过添加时间谓词来限制:

SELECT user, page, COUNT(page) AS pCnt
FROM pageviews
WHERE rowtime BETWEEN now() - INTERVAL '1' HOUR AND now() // only last hour
GROUP BY user, page

因为不是所有属性都是不断增长的, 因此可以告诉优化器domain的size, 就可以推断中间状态不会随着时间推移而增长,然后接受没有时间谓词的查询。

val sensorT: Table = sensors
  .toTable('id, 'loc, 'stime, 'temp)
  .attributeDomain('loc, Domain.constant) // domain of 'loc is not growing 
env.registerTable("sensors", sensorT)

SELECT loc, AVG(temp) AS avgTemp
FROM sensors
GROUP BY loc

结果的计算和细化时序

一些关系运算符必须等数据到达才能计算最终结果。例如:在10:30关闭的窗口至少要等到10:30才能计算出最终的结果。Flink的logical clock(即 决定何时才是10:30)取决于使用event time 还是 processing time。在processing time的情况下,logical time是每个机器的wallclock;在event time的情况下,logical clock time是由源头提供的watermark决定的。由于数据的乱序和延迟当在event time模式下时等待一段时间来减小计算结果不完整性。另一方面某些情况下希望得到不断改进的早期结果。因此对于结果被计算、改进或者做出最终结果时有不同的要求、

下图描绘了不同的配置参数如何用于控制早期结果和细化计算结果的。

  • "First Result Offset" 指第一个早期结果被计算的结果的时间。时间是相对于第一次可以计算完整结果的时间(比如相对于window的结束时间10:30)。如果设置的是-10分钟,对于结束时间是10:30的window那么第一个被发出去的结果是在逻辑时间10:20计算的。这个参数的默认值是0,即在window结束的时候才计算结果。
  • "Complete Result Offset" 指完整的结果被计算的时间。时间是相对于第一次可以计算完整的时间。如果设置的是+5分钟,对于结束时间是10:30的window那么产生完整结果的时间是10:35。这个参数可以减轻延迟数据造成的影响。默认是0,即在window结束的时候计算的结果就是完整结果。
  • "Update Rate" 指计算完整结果之前一次次更新结果的时间间隔(可以是时间和次数)。如果设为5分钟,窗口大小是30分钟的tumbling window,开始时间是10:300,"First Result Offset"是-15分钟, "Complete Result Offset"是2分钟,那么将在10:20, 10:25, 10:30更新结果,10:15禅城寄一个结果,10:32产生完整结果。
  • "Last Updates Switch" 指完整结果发出后对于延迟的数据是否计算延迟更新,直到计算状态被清除。
  • "Last Result Offset" 指可计算的最后一个结果的时间。这是内部状态被清除的时间,清除状态后再到达的数据将被丢弃。Last Result Offset 意味着计算的结果是近似值,不能保证精确。

原文链接

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
目录
相关文章
|
2月前
|
SQL 存储 API
Flink实践:通过Flink SQL进行SFTP文件的读写操作
虽然 Apache Flink 与 SFTP 之间的直接交互存在一定的限制,但通过一些创造性的方法和技术,我们仍然可以有效地实现对 SFTP 文件的读写操作。这既展现了 Flink 在处理复杂数据场景中的强大能力,也体现了软件工程中常见的问题解决思路——即通过现有工具和一定的间接方法来克服技术障碍。通过这种方式,Flink SQL 成为了处理各种数据源,包括 SFTP 文件,在内的强大工具。
173 15
|
1月前
|
SQL 大数据 API
大数据-132 - Flink SQL 基本介绍 与 HelloWorld案例
大数据-132 - Flink SQL 基本介绍 与 HelloWorld案例
46 0
|
2月前
|
SQL 安全 数据处理
揭秘数据脱敏神器:Flink SQL的神秘力量,守护你的数据宝藏!
【9月更文挑战第7天】在大数据时代,数据管理和处理尤为重要,尤其在保障数据安全与隐私方面。本文探讨如何利用Flink SQL实现数据脱敏,为实时数据处理提供有效的隐私保护方案。数据脱敏涉及在处理、存储或传输前对敏感数据进行加密、遮蔽或替换,以遵守数据保护法规(如GDPR)。Flink SQL通过内置函数和表达式支持这一过程。
83 2
|
2月前
|
SQL 大数据 数据处理
奇迹降临!解锁 Flink SQL 简单高效的终极秘籍,开启数据处理的传奇之旅!
【9月更文挑战第7天】在大数据处理领域,Flink SQL 因其强大功能与简洁语法成为开发者首选。本文分享了编写高效 Flink SQL 的实用技巧:理解数据特征及业务需求;灵活运用窗口函数(如 TUMBLE 和 HOP);优化连接操作,优先采用等值连接;合理选择数据类型以减少计算资源消耗。结合实际案例(如实时电商数据分析),并通过定期性能测试与调优,助力开发者在大数据处理中更得心应手,挖掘更多价值信息。
46 1
|
3月前
|
存储 JSON API
【Azure 存储服务】使用REST API操作Azure Storage Table,删除数据(Delete Entity)
【Azure 存储服务】使用REST API操作Azure Storage Table,删除数据(Delete Entity)
【Azure 存储服务】使用REST API操作Azure Storage Table,删除数据(Delete Entity)
|
3月前
|
API Java 数据库连接
从平凡到卓越:Hibernate Criteria API 让你的数据库查询瞬间高大上,彻底告别复杂SQL!
【8月更文挑战第31天】构建复杂查询是数据库应用开发中的常见需求。Hibernate 的 Criteria API 以其强大和灵活的特点,允许开发者以面向对象的方式构建查询逻辑,同时具备 SQL 的表达力。本文将介绍 Criteria API 的基本用法并通过示例展示其实际应用。此 API 通过 API 构建查询条件而非直接编写查询语句,提高了代码的可读性和安全性。无论是简单的条件过滤还是复杂的分页和连接查询,Criteria API 均能胜任,有助于提升开发效率和应用的健壮性。
127 0
|
3月前
|
SQL 资源调度 流计算
慢sql治理问题之在 Flink 中, userjar 分发问题如何优化
慢sql治理问题之在 Flink 中, userjar 分发问题如何优化
|
2月前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。
|
22天前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
777 17
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
下一篇
无影云桌面