开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink on yarn per-job的模式, hadoop_classpath 没有将 had

flink on yarn per-job的模式, hadoop_classpath 没有将 hadoop/share/hadoop/mapreduce 下来的依赖项打上。

flink cluster模式,是有的,这个问题有人知道吗?

展开
收起
云上静思 2022-12-29 10:04:26 1375 0
2 条回答
写回答
取消 提交回答
  • 你可以改写启动脚本 然后启动的时候把你需要的Jar地址都加入环境变量

    类似这样,想加啥加啥

    回答4.png

    此答案来自钉钉群“【2】Apache Flink China 社区"

    2022-12-30 10:16:45
    赞同 展开评论 打赏
  • 这个错误可能是由于在 flink on yarn per-job 模式下,hadoop_classpath 环境变量没有正确地配置导致的。

    hadoop_classpath 环境变量用于指定 Hadoop 的依赖项,其中包含了 Hadoop MapReduce 依赖的 jar 包和其他资源文件。在 flink on yarn per-job 模式下,hadoop_classpath 必须正确地配置,才能保证 Flink 程序能够正确地运行。

    具体来说,你可以在 flink-conf.yaml 文件中,找到 hadoop_classpath 配置项,并将 hadoop/share/hadoop/mapreduce 下的依赖项添加到 hadoop_classpath 中。例如:

    hadoop_classpath: "/path/to/hadoop-mapreduce/*"

    在这里,"/path/to/hadoop-mapreduce/*" 表示 hadoop-mapreduce 目录下的所有文件。你可以根据你的实际情况来修改这个路径,以便正确地配置 hadoop_classpath 环境变量。

    如果上述步骤还是无法解决问题,你可以尝试检查日志文件,以便找出更多的信息,并基于这些信息来进一步调试程序。

    2022-12-29 18:14:39
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    《构建Hadoop生态批流一体的实时数仓》 立即下载
    零基础实现hadoop 迁移 MaxCompute 之 数据 立即下载
    CIO 指南:如何在SAP软件架构中使用Hadoop 立即下载

    相关实验场景

    更多