[org.apache.flink.runtime.source.coordinator.SourceCoordinator]Uncaught exception in the SplitEnumerator for Source Source: MySQL Source while starting the SplitEnumerator.. Triggering job failover. java.lang.NoClassDefFoundError: org/apache/flink/shaded/guava30/com/google/common/util/concurrent/ThreadFactoryBuilder 这个报错谁能帮忙吗?flink 13.6 + flink_cdc_2.3.0
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
这个错误提示是缺少了org/apache/flink/shaded/guava30/com/google/common/util/concurrent/ThreadFactoryBuilder这个类,可能是版本不匹配或者依赖缺失导致的。建议检查一下依赖是否完整,并升级一下guava的版本为30.0-jre或更高版本。另外,也建议查看一下flink和flink_cdc的兼容性情况,确认两个库的版本是否匹配。
参考文档https://www.cnblogs.com/30go/p/15370240.html,此回答整理自钉群“【③群】Apache Flink China社区”
有可能是由于Flink版本和Flink CDC版本之间的不兼容性引起的。
Flink CDC提供了一种将数据从Flink SQL中转换为Flink SQL格式的方法。在Flink 13.6版本中,Flink CDC已经被弃用,因此可能会遇到这个问题。
为了解决这个问题,可以尝试升级Flink版本或Flink CDC版本,或者使用Flink SQL的旧版本(例如Flink 13.5)。还可以尝试使用Flink SQL的旧版本(例如Flink 13.5),但是这可能会导致一些功能的缺失。
另外,如果使用的是Flink SQL的旧版本,可能需要安装Flink SQL的旧版本组件(例如Flink SQL旧版本的JDBC驱动程序),以便与Flink 13.6或Flink CDC 2.3.0兼容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。