开发者社区> 问答> 正文

flink是否可以通过代码设置hadoop的配置文件目录

各位好:

目前hadoop的配置文件是在 fs.hdfs.hadoopconf 设置。

用户是否能够不启用配置文件中的fs.hdfs.hadoopconf,通过代码手动设置hadoop的目录。i All,

    目前我这里有个需求是想通过flink集群,消费mq消息,然后调用发送push的dubbo服务,实现push分发的功能。

    网上关于flink接入spring框架的资料没有找到太多,更别提dubbo服务调用相关的了(也可能是我查询资料的方式有限)。

    期望哪位有经验的朋友能够给予指点,我自己其实已经实现了一个测试demo,但还是期望能有更多相关资料作为参考,主要是担心资源消耗和性能、安全方面会发生问题,因为本身也是刚接触flink,了解有限。

    方便的话可以提供一些实例代码或资料链接。

                                                                                      感谢flink社区的各位朋友*来自志愿者整理的flink邮件归档

展开
收起
船长的小螺号 2021-12-03 10:09:15 1189 0
1 条回答
写回答
取消 提交回答
    1. HADOOP_HOME

    2. Configuration 也就是 fs.hdfs.hadoopconf

    3. HADOOP_CONF_DIR

    其中 Configuration 的方式是已废弃的*来自志愿者整理的FLINK邮件归档

    2021-12-03 10:36:49
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载