开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink每天有很多本地excel文件,每天想放到hive里面各种join,有什么办法?

Flink每天有很多本地excel文件,每天想放到hive里面各种join,有什么办法?

展开
收起
wenti 2023-01-16 19:56:03 350 0
1 条回答
写回答
取消 提交回答
  • 写脚本,Hadoop fs -put ,每天定时上传hdfs 上——该回答整理自钉群“【③群】Apache Flink China社区“

    2023-01-16 21:11:38
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Hive Bucketing in Apache Spark 立即下载
    spark替代HIVE实现ETL作业 立即下载
    2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载