开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink-cdc可以使用 flink 的 kafka avro格式对接吗?

flink-cdc写入 Upsert Kafka avro格式 可以使用 flink 的 kafka avro格式对接吗?

展开
收起
真的很搞笑 2023-10-18 17:09:37 77 0
1 条回答
写回答
取消 提交回答
  • 可以的,Flink-CDC写入Upsert Kafka Avro格式时,确实可以使用Flink的Kafka Avro格式对接。为了实现这个功能,您需要依赖flink-connector-kafka_2.12,并确保其版本为1.12.0。如果您使用SQL Client,还需要下载flink-sql-connector-kafka_2.11-1.12.0.jar并将其放置在Flink安装目录的lib文件夹下。

    在实际操作中,Flink会根据主键列的值对数据进行分区,从而保证主键上的消息有序。这意味着同一主键上的更新或删除消息将落在同一分区中。

    此外,关于Upsert Kafka的数据格式,它支持正常的JSON格式、debezium-json格式以及changelog-json格式。在实际应用中,您可以根据需要选择合适的数据格式。

    2023-10-24 10:34:07
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载