开发者社区> 问答> 正文

Native Kubernetes 需要访问HDFS问题

   在使用Native Kubernetes 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 

   但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢   *来自志愿者整理的flink邮件归档

展开
收起
又出bug了-- 2021-12-02 11:49:27 541 0
1 条回答
写回答
取消 提交回答
  • 你可以在Flink client端设置HADOOP_CONF_DIR环境变量即可,这样会自动ship 

    hadoop的配置并且挂载给JobManager和TaskManager的*来自志愿者整理的FLINK邮件归档

    2021-12-02 14:35:11
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
通过 ACK 智能化运维体系获得集群自动化诊断和自愈能力 立即下载
ACK 云原生弹性方案—云原生时代的加速器 立即下载
海量数据分布式存储——Apache HDFS之最新进展 立即下载

相关镜像