开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink的mysql数据同步到kafka 但是报错了,如何解决?

Flink的mysql数据同步到kafka 但是报错了,如何解决? 文档里是支持debezium-json这个格式的 'upsert-kafka' connector doesn't support 'debezium-json' as key format, because 'debezium-json' is not in insert-only mode
CREATE TEMPORARY TABLE k_cdc_test
(
id bigint
,not_null_test varchar(256)
,create_time timestamp
,age int
,PRIMARY KEY (id) NOT ENFORCED
)
WITH (
'connector' = 'upsert-kafka'
,'topic' = 'k_cdc_test'
,'properties.bootstrap.servers' = ''
,'key.format' = 'debezium-json'
,'value.format' = 'debezium-json'
)

这个sink的连接器有问题的么?

展开
收起
三分钟热度的鱼 2024-07-24 19:55:14 24 0
1 条回答
写回答
取消 提交回答
  • 看报错,这个不支持插入模式。 报错原因:“Upsert-kafka”连接器不支持“debezium-json”作为关键格式,因为“debezium-json”不处于仅插入模式。此回答整理自钉群“实时计算Flink产品外部客户交流群”

    2024-07-24 21:55:50
    赞同 5 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    PolarDB MySQL引擎重磅功能及产品能力盛大发布 立即下载
    阿里云企业级自治数据库 RDS 详解 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载

    相关镜像