flink1.19和hive3.1.3,cdc从mysql同步数据到hive,插入时报错?

使用的是flink sql
处理流程是从mysql进kafka之后,通过kafka插入hive,在插入数据时会报错,选了upsert-kafka,sql没有更新或者删除操作

Flink SQL> [ERROR] Could not execute SQL statement. Reason:
org.apache.flink.table.api.TableException: Table sink 'hive_catalog.greenhouse_db.hive_dim_greenhouse' doesn't support consuming update and delete changes which is produced by node ChangelogNormalize(key=[greenhouse_id])

展开
收起
游客mc5jdeakd7imk 2025-03-21 08:22:15 12 分享
分享
版权
举报
0 条回答
写回答
取消 提交回答

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

还有其他疑问?
咨询AI助理