开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

各位大神,flink1.13.2 hive compact文件是,提示hdfs找不到临时文件,知道是

各位大神,flink1.13.2 hive compact文件是,提示hdfs找不到临时文件,知道是什么原因吗?

展开
收起
云上静思 2022-11-25 09:38:58 716 0
1 条回答
写回答
取消 提交回答
  • 有可能被其他进程删掉吗?之前有个用户也遇到类似的情况,不过他发现被其他服务删了。 可以通过 hdfs 的审计日志看看

    此答案来自钉钉群“【2】Apache Flink China 社区”

    2022-11-25 10:29:46
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    Hive Bucketing in Apache Spark 立即下载
    spark替代HIVE实现ETL作业 立即下载
    2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载