开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink这个错误是为什么发生?

Flink这个错误是为什么发生?从kafka往Doris sink数据时候报错, 偏移量还是自动提交了,导致修复后启动消费,那条错误的数据丢失了,没有消费到。385005e614b5d638fcaf37df6a499a0c.png

展开
收起
三分钟热度的鱼 2023-12-13 19:56:39 49 0
1 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    Flink在从Kafka往Doris Sink数据传输时出现的错误,主要源于偏移量的自动提交失败。这种情况通常意味着Kafka消费者无法成功地将偏移量提交。当Flink Kafka源未启用检查点时,它会依赖于Kafka消费者内部的自动定期偏移提交逻辑,由Kafka消费者的属性配置enable.auto.commit并在其属性中配置auto.commit.interval.ms来控制偏移量的提交频率。

    关于你提到的修复后启动消费,那条错误的数据丢失了,没有消费到的问题,可能的原因是在故障发生时,偏移量已经提交到了Kafka中,但是在修复后再次启动消费时,由于某些原因(如时间戳处理等),导致那条错误的数据没有被正确处理。

    2023-12-14 21:46:13
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载