开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

hudi的bulk_insert怎么用

我从mysql cdc 到 hudisink,在hudi的connector里面加了write.operation = 'bulk_insert'。跑完任务,hudi里面查询不到新增的数据,不加write.operation = 'bulk_insert'就能查询到数据。任务都不报错。

展开
收起
游客4i6tmetss43zk 2024-06-28 17:43:42 7 0
0 条回答
写回答
取消 提交回答

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载