开发者社区 问答 正文

Native Kubernetes 需要访问HDFS问题

   在使用Native Kubernetes 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 

   但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢   *来自志愿者整理的flink邮件归档

展开
收起
又出bug了-- 2021-12-02 11:49:27 574 分享 版权
1 条回答
写回答
取消 提交回答
  • 你可以在Flink client端设置HADOOP_CONF_DIR环境变量即可,这样会自动ship 

    hadoop的配置并且挂载给JobManager和TaskManager的*来自志愿者整理的FLINK邮件归档

    2021-12-02 14:35:11
    赞同 展开评论