开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

有用debezium-json格式写入kafka的吗?

有用debezium-json格式写入kafka的吗?消费kafka的时候,部分数据的delete数据和insert数据不会聚合,有遇到过这种问题吗?

展开
收起
wenti 2023-02-13 16:02:15 254 0
1 条回答
写回答
取消 提交回答
  • 我感觉可能是因为一条数据不同时间发生变更,变更的信息没有写到一个kafka分区中,最号在debezium中配置一下消息分区和key的转换策略,然后让消费者根据key值进行处理

    2023-02-23 13:06:09
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载