开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

有用过flink streaming去lookup join一个一亿条数据的hive维表的经验的吗?

有没有哪位有用过flink streaming 去lookup join一个一亿条数据的hive维表的经验。左边kafka,每分钟500万条,两侧字段球不到30,hive数据同步到kv里再去join,join的时候再加些缓存

展开
收起
wenti 2023-01-30 12:40:28 505 0
1 条回答
写回答
取消 提交回答
  • 公众号:网络技术联盟站,InfoQ签约作者,阿里云社区签约作者,华为云 云享专家,BOSS直聘 创作王者,腾讯课堂创作领航员,博客+论坛:https://www.wljslmz.cn,工程师导航:https://www.wljslmz.com

    这个操作我搞过,现在您是遇到什么问题了吗?

    2023-01-31 10:08:05
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Hive Bucketing in Apache Spark 立即下载
    spark替代HIVE实现ETL作业 立即下载
    2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载