Flink CDC按你上午的那种配置写法,我把整个flink环境重启了他才生效的。但又没完全起作用,我配了3个,刚开始他突破到了4个,后来又失败稳定在3个了。如果flink之前已经按默认20个提交过任务,即使把所有的任务都退出,重新提交新的任务都设置的3也是不起作用的,我依然提交了9个任务。重启之后所有任务都设置3,后面的任务运行就总是失败了?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
您好,Flink CDC 需要把数据从 Kafka 读取到 Flink 集群,然后再从 Flink 集群写入 Elasticsearch。如果您重启了 Flink 集群,那么 Flink CDC 会重新读取 Kafka 中的所有数据,并将数据写入 Elasticsearch。如果您没有重启 Elasticsearch 集群,那么 Flink CDC 写入 Elasticsearch 的数据可能不会立即出现。您可以尝试等待一段时间,或者重启 Elasticsearch 集群。如果仍然有问题,您可以提交一个 issue 来寻求帮助。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。