流计算引擎数据问题之在 Spark Structured Streaming 中水印计算和使用如何解决

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 流计算引擎数据问题之在 Spark Structured Streaming 中水印计算和使用如何解决

问题一:Apache Kafka Streams 的完整性推理过程是怎样的?


Apache Kafka Streams 的完整性推理过程是怎样的?


参考回答:

Apache Kafka Streams 的完整性推理过程不使用流中嵌入的特殊元信息或系统级低水印时间戳,而是允许通过在每个算子上配置宽限期来进行细粒度的完整性确定。生产阶段,事件流经算子时,算子使用“事件时间-Slack Time”作为完整性信号。随着流数据的持续流入,事件时间增加,可以得到类似“低水印”的进度推断。由于没有特殊信号传播过程,当上游算子过滤掉大量数据时,下游算子可能因长时间未收到数据而无法及时推进处理进度,这可能导致处理延迟增加。消费阶段,当由宽限时间计算得到的时间戳大于窗口上界时,窗口关闭,状态释放。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/654066


问题二:Apache Kafka Streams 使用宽限时间方案有何优缺点?


Apache Kafka Streams 使用宽限时间方案有何优缺点?


参考回答:

Apache Kafka Streams 使用宽限时间方案的优点是,通过将低水印概念从全局拓展到算子级别,可以解耦不同算子的等待时间,实现更灵活的同步控制。然而,该方案也存在缺点,主要是由于“信号使用了当前事件信息”这一点带来的。例如,当上游算子因各种原因处理进度滞后而其他节点正常时,由于事件时间持续增加,超过宽限期后窗口会关闭,导致滞后节点处理完成的数据无法使用(窗口已关闭)。此外,由于数据流拓扑缺乏全局同步特性,这种推理在某些场景下可能会造成结果的不正确。为了解决这些问题,Apache Kafka Streams 计划使用类似 DataFlow 模型的方式,在流数据中注入携带进度信息的元数据来实现进度追踪。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/654067


问题三:Apache Spark Streaming 如何处理端到端一致性和时间事件的支持?


Apache Spark Streaming 如何处理端到端一致性和时间事件的支持?


参考回答:

由于 Apache Spark Streaming 起源于批处理设计,它对端到端一致性和时间事件的支持并不理想。然而,从 Spark 2.1 开始,新的 Apache Structured Streaming API 引入了基于宽限时间的类水印的数据完整性方案,允许用户通过指定事件时间列和延迟数据的宽限时间来管理延迟数据,以控制流状态的内存使用,例如丢弃延迟事件和删除旧状态。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/654068


问题四:在 Spark Structured Streaming 中,水印是如何计算和使用的?

在 Spark Structured Streaming 中,水印是如何计算和使用的?


参考回答:

在 Spark Structured Streaming 中,水印是全局的,在每个批次计算触发结束后重新计算。新的水印是取触发器执行前看到的最大时间戳和触发器执行中数据中的最大时间戳之间的最大值,然后减去宽限时间。在存在多个输入源的场景中,Spark 会跟踪每个输入流的情况,单独计算出水印,然后选择最小值作为全局水印。基于这个全局水印,Spark 可以维护到达的数据状态,并通过与迟到数据聚合来更新它,小于水印的延迟数据将被聚合,超过水印的数据将被丢弃。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/654069


问题五:Apache Flink 和 Apache Spark Streaming在完整性推理方面有何不同?


Apache Flink 和 Apache Spark Streaming在完整性推理方面有何不同?


参考回答:

Apache Flink 的完整性推理方案基于低水印设计,而 Apache Spark Streaming(特别是其结构化流API)则引入了基于宽限时间的类水印方案。Flink 的水印是随数据在流中传播的,而 Spark Structured Streaming 的水印是全局的,在每个批次计算后重新计算。此外,Flink 的水印设计更加成熟,能够处理更复杂的流数据完整性情况,而 Spark Structured Streaming 的水印主要用于状态管理,其完整性推理能力相对较弱。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/654070


目录
相关文章
|
1天前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
11 0
|
1天前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
12 0
|
1天前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
11 0
|
1天前
|
消息中间件 分布式计算 Kafka
大数据-102 Spark Streaming Kafka ReceiveApproach DirectApproach 附带Producer、DStream代码案例
大数据-102 Spark Streaming Kafka ReceiveApproach DirectApproach 附带Producer、DStream代码案例
11 0
|
1天前
|
SQL 分布式计算 大数据
大数据-101 Spark Streaming DStream转换 窗口操作状态 跟踪操作 附带多个案例(一)
大数据-101 Spark Streaming DStream转换 窗口操作状态 跟踪操作 附带多个案例(一)
8 0
|
1天前
|
存储 分布式计算 大数据
大数据-101 Spark Streaming DStream转换 窗口操作状态 跟踪操作 附带多个案例(二)
大数据-101 Spark Streaming DStream转换 窗口操作状态 跟踪操作 附带多个案例(二)
13 0
|
1天前
|
SQL 分布式计算 大数据
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(一)
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(一)
8 0
|
1天前
|
SQL 分布式计算 大数据
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(二)
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(二)
9 0
|
11月前
|
消息中间件 分布式计算 Kafka
195 Spark Streaming整合Kafka完成网站点击流实时统计
195 Spark Streaming整合Kafka完成网站点击流实时统计
66 0
|
消息中间件 分布式计算 Kafka
大数据Spark Structured Streaming集成 Kafka
大数据Spark Structured Streaming集成 Kafka
109 0