Flink 新一代流计算和容错问题之Flink 中的数据可以分为什么类型

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: Flink 新一代流计算和容错问题之Flink 中的数据可以分为什么类型

问题一:Flink 在正常处理下的延迟大约是多少?


Flink 在正常处理下的延迟大约是多少?


参考回答:

在正常处理的情况下,Flink 引擎框架本身除了定期去做 Checkpoint 的快照,几乎没有其他额外的开销,而且 Checkpoint 快照很大一部分是异步的,所以 Flink 的端到端延迟大约在 100 毫秒左右。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/671119



问题二:Flink 在容错恢复时面临的主要挑战是什么?


Flink 在容错恢复时面临的主要挑战是什么?


参考回答:

Flink 在容错恢复时面临的主要挑战是恢复代价较大,需要将整个作业停掉,然后从过去的快照检查点整体恢复,这个过程可能需要几秒钟甚至分钟级,特别是在作业状态较大的情况下。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/671150



问题三:容错恢复包括哪些主要步骤?


容错恢复包括哪些主要步骤?


参考回答:

容错恢复是一个全链路的问题,包括 failure detect、job cancel、新的资源申请调度、状态恢复和重建等。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/671151



问题四:Flink 中的数据可以分为哪几类?


Flink 中的数据可以分为哪几类?


参考回答:

Flink 中的数据可以粗略分为三类:元信息、处理的中间数据(Inflight Data)和算子状态数据。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/671152



问题五:Checkpoint 在 Flink 中扮演什么角色?


Checkpoint 在 Flink 中扮演什么角色?


参考回答:

Checkpoint 在 Flink 中用于实现容错恢复,通过定期保存作业的状态,以便在发生故障时可以从最近的 Checkpoint 恢复作业。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/671153

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
26天前
|
SQL 消息中间件 分布式计算
大数据-124 - Flink State 01篇 状态原理和原理剖析:状态类型 执行分析
大数据-124 - Flink State 01篇 状态原理和原理剖析:状态类型 执行分析
60 5
|
3天前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
467 8
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
|
19天前
|
运维 数据处理 Apache
数据实时计算产品对比测评报告:阿里云实时计算Flink版
数据实时计算产品对比测评报告:阿里云实时计算Flink版
|
26天前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
51 1
|
28天前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
39 1
|
26天前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
97 0
|
26天前
|
SQL 分布式计算 大数据
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(一)
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(一)
39 0
|
26天前
|
大数据 流计算
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(二)
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(二)
39 0
|
2月前
|
SQL 安全 数据处理
揭秘数据脱敏神器:Flink SQL的神秘力量,守护你的数据宝藏!
【9月更文挑战第7天】在大数据时代,数据管理和处理尤为重要,尤其在保障数据安全与隐私方面。本文探讨如何利用Flink SQL实现数据脱敏,为实时数据处理提供有效的隐私保护方案。数据脱敏涉及在处理、存储或传输前对敏感数据进行加密、遮蔽或替换,以遵守数据保护法规(如GDPR)。Flink SQL通过内置函数和表达式支持这一过程。
71 2