我使用Flink CDC 3.0对mysql整库同步到starrock中,现在任务已经创建好了,mysql的表和数据都同步到starrock中了,现在发现的问题是,我在源表加了新字段,接着flink的任务就挂掉了是为什么?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
将时间调长一点。你这个问题我也遇到了 我给你解释下 FlinkCDC捕捉到了一个Schema变更的日志,然后交给StartRocks的sink去执行,StarRocks的sink执行完Schema变更后,需要向jobmaster那边去汇报这个operatorEvent,然后这个汇报超时了:
超时的原因可能是StarRocks更新schema花费的时间太长了,jobmanger等的时间是默认的时间pekko.ask.timeout=10s,但是StarRocks还没更新列成功,这时JobManager就会抛出异常通信超时。
你尝试修改pekko.ask.timeout这个参数为120s,不过当JobManager等待StarRocks的sink汇报operatorEvent的过程中JobManager的resutapi是无法访问的,这个会引起Flink任务状态不准确的问题。此回答来自钉群Flink CDC 社区。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。