各位好:
目前hadoop的配置文件是在 fs.hdfs.hadoopconf 设置。
用户是否能够不启用配置文件中的fs.hdfs.hadoopconf,通过代码手动设置hadoop的目录。i All,
目前我这里有个需求是想通过flink集群,消费mq消息,然后调用发送push的dubbo服务,实现push分发的功能。
网上关于flink接入spring框架的资料没有找到太多,更别提dubbo服务调用相关的了(也可能是我查询资料的方式有限)。
期望哪位有经验的朋友能够给予指点,我自己其实已经实现了一个测试demo,但还是期望能有更多相关资料作为参考,主要是担心资源消耗和性能、安全方面会发生问题,因为本身也是刚接触flink,了解有限。
方便的话可以提供一些实例代码或资料链接。
感谢flink社区的各位朋友*来自志愿者整理的flink邮件归档
HADOOP_HOME
Configuration 也就是 fs.hdfs.hadoopconf
HADOOP_CONF_DIR
其中 Configuration 的方式是已废弃的*来自志愿者整理的FLINK邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。