开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

在Flink CDC中, Flniksql 不支持MYSQL写入hive嘛?

在Flink CDC中, Flniksql 不支持MYSQL写入hive嘛?93629aae798c0bfd2caa0bbd9baae7ea.png

展开
收起
想去床上睡觉 2024-08-13 12:21:49 18 0
1 条回答
写回答
取消 提交回答
  • 这个报错说明的是不支持行级别更新和删除操作,你的sink端hive 不能支持,hive数据是存在hdfs上,你想想他能支持吗,目前只有像doris/holo这种olap的实时数仓才支持。你得处理更新和删除的操作,不然也白搭,hive没法写实时更新,很难,做离线可以,实在要这么搞可以试试用paimon;你用flinkjdbc开启hivecatalog就行了。每一次全量写就行了-此回答整理自钉群“Flink CDC 社区”

    2024-08-13 13:59:20
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Hive Bucketing in Apache Spark 立即下载
    spark替代HIVE实现ETL作业 立即下载
    2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载

    相关镜像