开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

唯一可能导致数据不一致的情况出现在两份输入的数据上,即存量和增量,存在哪两种情况?

已解决

唯一可能导致数据不一致的情况出现在两份输入的数据上,即存量和增量,存在哪两种情况?

展开
收起
游客lmkkns5ck6auu 2022-08-31 10:31:15 281 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    • 存量和增量数据有交叠:体现在初始存量与整点的增量数据聚合场景,由于算法天然的去重性可以保证数据的一致。

    • 存量和增量数据有缺失:体现在增量数据的缺失上,而增量数据是由 Flink 将 Kafka 数据写入 Hive 的,这个过程中是有一定的可能性造成数据的不一致,即分区提交后的乱序数据。虽然说乱序数据到来后的下一次 checkpoint 时间点分区将再次提交,但下游任务一般是检测到首次分区提交就会触发执行,造成下游任务的数据不一致。

    以上内容摘自《Apache Flink 案例集(2022版)》电子书,点击https://developer.aliyun.com/ebook/download/7718 可下载完整版

    2022-08-31 12:11:45
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
智能设计的增量 立即下载
交易风控数据的海量存储与多种离线计算处理 立即下载
数据库异地备份及不还原快速查询备份集最佳实践 立即下载