开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink cdc是jdk1.8可以编译成功jdk17一直编译不成功,是不是就算自己编译也不行还是?

flink cdc是jdk1.8可以编译成功jdk17一直编译不成功,是不是就算自己编译也不行还是?image.png
一直报这个错?

展开
收起
真的很搞笑 2023-11-21 09:12:19 102 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    Flink CDC应该支持JDK 8及以上的版本。如果无法在JDK 17上编译成功,请检查您的Flink CDC版本和编译环境,确保正确配置了Maven等工具。
    此外,您还可以尝试以下一些步骤来排查问题:

    1. 更新依赖:确认您的Maven仓库中的所有依赖均处于最新状态。
    2. 清除本地缓存:清空Maven缓存以清除旧的依赖版本。
    3. 更新项目版本:确认您的项目中使用的所有相关项目的版本都符合Flink CDC的要求。
    2023-11-21 23:12:44
    赞同 展开评论 打赏
  • 编译包是在对应连接器的sql包里面进行编译,此回答整理自钉群“Flink CDC 社区”

    2023-11-21 22:20:22
    赞同 展开评论 打赏
  • Flink CDC的编译确实需要使用对应的JDK版本。如果你在JDK 17环境下编译Flink CDC,那么你需要确保你使用的JDK版本与Flink支持的JDK版本兼容。然而,尽管你可以在JDK 17环境下成功编译和运行Flink 1.7.1,这并不意味着所有版本的Flink都能在JDK 17下顺利编译。具体支持的JDK版本,请参考Flink官方文档或者GitHub仓库中的说明。

    另外,如果你遇到无法获取数据的问题,可能的原因包括但不限于:CDC配置错误、网络问题等。此外,你也可以选择直接从Flink CDC的官方网站下载预编译好的二进制包或通过pom.xml文件中添加相关依赖来使用。

    2023-11-21 14:58:48
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载