Flink CDCSQL jdbc 输出 不支持overwrite 咋办,有大佬处理过这个问题吗?
对于Flink CDC SQL jdbc输出不支持overwrite的问题,这是因为JD对于Flink CDC SQL jdbc输出不支持overwrite的问题,这是因为JDBC connector本身不支持INSERT OVERWRITE的操作。目前,在Flink SQL中,只有Filesystem connector和Hive table支持INSERT OVERWRITE,因为这些表一般不会有主键。而其他的connector,如JDBC、ES、HBase等,暂时并不支持INSERT OVERWRITE。
不过,你可以尝试使用upsert插入的方法作为替代。所谓的upsert插入,就是在connector表上定义了主键(PK),然后根据主键的结果进行更新。对于数据库类的系统来说,这种方法应该可以满足业务需求。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。