开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink这个报错谁能帮忙吗

[org.apache.flink.runtime.source.coordinator.SourceCoordinator]Uncaught exception in the SplitEnumerator for Source Source: MySQL Source while starting the SplitEnumerator.. Triggering job failover. java.lang.NoClassDefFoundError: org/apache/flink/shaded/guava30/com/google/common/util/concurrent/ThreadFactoryBuilder 这个报错谁能帮忙吗?flink 13.6 + flink_cdc_2.3.0

展开
收起
冰激凌甜筒 2023-04-18 16:38:37 410 0
3 条回答
写回答
取消 提交回答
  • 公众号:网络技术联盟站,InfoQ签约作者,阿里云社区签约作者,华为云 云享专家,BOSS直聘 创作王者,腾讯课堂创作领航员,博客+论坛:https://www.wljslmz.cn,工程师导航:https://www.wljslmz.com

    这个报错信息显示缺少 Guava 30 的相关类文件,可能是因为 Flink 1.13.6 自带的 Guava 版本与 flink_cdc_2.3.0 中使用的 Guava 版本不兼容导致的。您可以尝试以下解决方案:

    1. 确认 Flink 1.13.6 中自带的 Guava 版本号,确保其版本不低于 30.1.1-jre;
    2. 确认 flink_cdc_2.3.0 中所使用的 Guava 版本,尝试升级至 30.1.1-jre 或更高版本;
    3. 如果当前版本不兼容,可以尝试将 flink_cdc_2.3.0 中使用 Guava 相关的依赖,改为与 Flink 1.13.6 中自带依赖的 Guava 版本一致;
    4. 如果以上方案均不可行,可以将 Guava 相关的依赖,打包成一个单独的 jar 文件,并将其放到 Flink 程序的 lib 目录下,以确保 Flink 程序可以正常加载所需要的 Guava 类库。
    2023-04-30 13:16:00
    赞同 展开评论 打赏
  • 参考文档https://www.cnblogs.com/30go/p/15370240.html,此回答整理自钉群“【③群】Apache Flink China社区”

    2023-04-18 18:50:43
    赞同 展开评论 打赏
  • 存在即是合理

    一般是由于 Flink 作业在启动时遇到了问题。具体来说,这个错误可能是由于在启动 Flink 作业时,某些依赖项未能正确加载或配置。

    以下是一些可能导致这个错误的原因:

    1、依赖项未正确加载或配置:确保你的 Flink 作业正确地加载了所需的依赖项,例如 Flink 的 JDBC 驱动程序。

    2、配置文件不正确:确保你的 Flink 作业的配置文件正确地配置了所需的依赖项和参数。

    3、环境变量未正确设置:确保你的 Flink 作业的环境变量正确地设置了所需的依赖项和参数。

    4、数据源未正确配置:确保你的 Flink 作业正确地配置了数据源,并且数据源的配置文件正确地配置了所需的依赖项和参数。

    如果你已经尝试了上述步骤,但仍然无法解决问题,请尝试查看 Flink 作业的日志文件,以了解更多详细信息。

    2023-04-18 17:29:59
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载