Flink的kafka连接器在latest消费,savepoint不生效有大佬遇到吗?
你好,Flink 的 kafka 连接器在 latest 消费,savepoint 不生效,有以下几种可能的原因:
checkpoint 的时间间隔太长。当 checkpoint 的时间间隔太长时,可能会导致 Flink 程序消费的数据落后于最新的 Kafka 数据,从而导致 savepoint 不生效。
kafka 的副本数太少。当 kafka 的副本数太少时,可能会导致 Kafka 集群的 Leader 节点出现故障,从而导致 Flink 程序无法访问最新的 Kafka 数据,从而导致 savepoint 不生效。
kafka 的配置不正确。当 kafka 的配置不正确时,可能会导致 Flink 程序无法正常消费 Kafka 数据,从而导致 savepoint 不生效。
你可以尝试通过修改 c
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。