Flink CDC一样的报错哈,这错误看起确实像序列化问题:Caused by: java.io.InvalidClassException: org.apache.flink.streaming.connectors.kafka.table.DynamicKafkaRecordSerializationSchema; local class incompatible: stream classdesc serialVersionUID = 7316128795914937937, local class serialVersionUID = 2479642893364766617
at java.io.ObjectStreamClass.initNonProxy(Unknown Source) ~[?:?]
at java.io.ObjectInputStream.readNonProxyDesc(Unknown Source) ~[?:?]
换成flink-sql-connector-kafka-1.16.2.jar后作业可执行正常,看来就是connector版本问题
根据您提供的错误信息,确实是序列化问题导致的。该错误表明您使用的 Flink 版本与 Flink 的 Kafka Connector 版本不兼容。
具体来说,您使用的 Kafka Connector 版本为 1.16.2,但 Flink 的核心版本为 1.16.2,这两个版本之间的兼容性可能存在问题。
解决此问题的方法是确保使用的 Flink 版本与 Kafka Connector 版本兼容。您可以尝试以下方法:
使用与 Flink 1.16.2 版本兼容的 Kafka Connector 版本。您可以查阅 Flink 官方文档或发布说明,找到与 Flink 1.16.2 兼容的 Kafka Connector 版本,并将其用于您的项目。
更新 Flink 版本到与 Kafka Connector 1.16.2 兼容的版本。根据您的需求,可以尝试将 Flink 更新到与 Kafka Connector 1.16.2 兼容的版本,以确保版本匹配。
请注意,Flink 的版本兼容性是一个重要的考虑因素,确保使用相互兼容的版本组合可以减少潜在的兼容性问题。
如果您需要进一步的帮助,请提供更多的信息,例如您使用的 Flink 和 Kafka Connector 版本,以及相关的代码和配置。这将有助于更准确地诊断和解决问题。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。