Flink不走本地但是hdfs又不行,这种不是矛盾了吗?

Flink不走本地但是hdfs又不行,这种不是矛盾了吗?‘—C’ 指定的包必须是集群可以共享的,意思是这吗?所以 hdfs是可以共享的,但是它不支持hdfs 协议这个会有隐患吗?那像他们做的数据平台那种,就没有用hdfs管理jar的吗,不应该吧那他们是用什么方式的?我现在的想法是直接把URL拓展成支持hdfs协议的lQLPJwWFM_ODHUbNAzfNBX6wxgq4qDqKDugEQSHh2MAKAA_1406_823.png 这个更改默认的文件系统呢?

展开
收起
冰激凌甜筒 2023-04-28 20:36:07 680 分享 版权
1 条回答
写回答
取消 提交回答
  • ‘-C ’分发Task的时候会给远端用本地远端找不到依赖,‘-C ’其实就是做个maven私服,你可以改改用JVM系统属性支持 hdfsflink SPARK都没有这么搞应该是有原因的,Http凑合用吧。我瞅过没有用直接用hdfs加载依赖的,都是用hdfs中转。 别怂先直接把hdfs支持干上去,做个http文件服务器管理依赖也是可以的,直接拓展支持hdfs协议不难,G21这跟你依赖加载没关系此回答整理自钉群“【③群】Apache Flink China社区”

    2023-04-29 10:01:43
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

还有其他疑问?
咨询AI助理