问一下大佬们,我们最近flink任务从checkpoint(hdfs存储)恢复,发现恢复信息里还尝试

问一下大佬们,我们最近flink任务从checkpoint(hdfs存储)恢复,发现恢复信息里还尝试连接旧的hdfs(我们换了hdfs,把任务的checkpoint相关文件迁移到新的hdfs了),这样的问题遇到过么?或者checkpoint会存储集群的hdfs地址么?

展开
收起
十一0204 2023-04-12 13:33:19 528 发布于江西 分享
分享
版权
举报
2 条回答
写回答
取消 提交回答
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    元数据中保存了旧的 HDFS 地址,更换了 HDFS,在进行 Checkpoint 恢复时,Flink 会尝试连接旧的 HDFS 地址。

    2023-04-12 21:51:51 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论
  • 坚持这件事孤独又漫长。

    可能是以下几个原因:

    1. 程序配置文件未更新:首先要检查Flink程序中的配置文件是否已更新为新的HDFS地址。确保所有配置文件中关于HDFS的配置参数都正确的配置为新的HDFS地址。

    2. 旧的Checkpoint目录未删除:如果Checkpoint存储的目录还是之前的旧地址,即使配置文件中已经修改了HDFS地址,Flink仍会尝试恢复数据。因此需要检查和删除旧的Checkpoint目录和文件。

    3. Flink版本不兼容:Flink版本升级后,新版本可能不兼容旧版本的Checkpoint格式。如果还想让旧格式的Checkpoint生效,则需要将新版本的flink-conf.yaml文件中的“state.checkpoints.load.previous-version”设置为“true”,默认情况下为false。

    总而言之,在排查时,要检查Flink程序的配置文件中是否已经修改了HDFS地址,以及确保所有的Checkpoint存储目录都已更新。如果以上两个问题都已解决,那么可以考虑是否有版本不兼容的问题。

    2023-05-13 08:16:22 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理