开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

为啥我的Flink写到Hive 看 HDFS 上面是有文件的,但是Hive 查不出来?

为啥我的Flink写到Hive 看 HDFS 上面是有文件的,但是Hive 查不出来?

展开
收起
真的很搞笑 2023-09-13 17:25:07 398 0
1 条回答
写回答
取消 提交回答
  • 存在即是合理

    可能是由于以下原因导致的:

    1. Hive表没有创建成功,或者Flink作业没有将数据写入到正确的表中。请检查Hive表和Flink作业是否正确配置。

    2. Hive表可能被其他进程锁定了,导致无法查询到数据。请检查Hive表是否被进程占用。

    3. HDFS文件系统也可能存在问题,导致无法查询到数据。检查HDFS文件系统是否正常。

    2023-09-14 13:25:29
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Hive Bucketing in Apache Spark 立即下载
    spark替代HIVE实现ETL作业 立即下载
    2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载