开发者社区> 问答> 正文

Streaming File Sink疑问

大家好: 我在看到streamingFileSink 中看到可以把数据转成文件写入到Flink的fileSystem中,但是这里有个问题就是,我写入的hdfs不是在flink的集群(集群A)上,是在另一个hdfs集群(集群B)上,然后那个集群(集群B)上面配置了namenode的HA,如果只是直接指定namenode感觉不怎么可靠,但是flink默认的flinkSystem中,是指定了flink默认的hdfs集群(集群A),请问这个连接器中,能单独指定fs的配置吗?因为flink开启了checkpoint,而checkpoint的默认路径是在fink自身的集群上(集群A),所以不能粗暴的直接把默认的fileSystem直接指向集群B。谢谢*来自志愿者整理的flink邮件归档

展开
收起
毛毛虫雨 2021-12-08 11:03:01 334 0
1 条回答
写回答
取消 提交回答
  • 我的做法是 重新配置 HADOOP_CONF_DIR 环境变量:在flink集群里面配置 core-site.xml 和 hdfs-site.xml,同时将 HADOOP_CONF_DIR 环境变量 指向这个文件目录*来自志愿者整理的flink邮件归档

    2021-12-08 19:33:22
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
BUILDING REALTIME DATA PIPELINES WITH KAFKA CONNECT AND SPARK STREAMING 立即下载
Stream Processing with Apache RocketMQ 立即下载
Dataflow with Apache NiFi 立即下载