Flink CDC 中我之前sqlserver cdc用的2.2.1的flink用的1.13.2,现在想换2.4.0,直接替换cdc那个依赖,报guava30的错误,这个大家是怎么解决的?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
如果您之前使用的是 Flink CDC 2.2.1 和 Flink 1.13.2,并且现在想要升级到 Flink CDC 2.4.0,可以按照以下步骤进行处理:
1. 更新 Flink 的版本:将 Flink 升级到最新的稳定版,例如 Flink 1.14.2。这样可以获得性能改进和 Bug 修复等好处。
2. 更新 Flink CDC 的版本:将 Flink CDC 升级到最新的稳定版,即 Flink CDC 2.4.0。这个版本支持 SQL Server 2017 的无锁 CDC 模式。
在执行升级过程中,请确保遵循以下步骤:
- 升级 Flink 库和 CDC 依赖版本。 - 检查各个版本的 Breaking Changes,并相应地修改代码。 - 检查原有作业的配置是否需要调整。 - 在测试环境中进行回放测试数据,确认升级后的作业状态正常。 - 最后,在生产环境中部署新版本。
建议您参考以上步骤,逐步完成版本的升级。升级到较新版本通常会带来性能提升和 Bug 修复等好处。
是的,Flink CDC 2.2.1支持Flink 1.13.2。不过我建议你升级到较新版本:
Flink 1.13.2已经不是最新的稳定版,目前最新的稳定版是Flink 1.14.2。
Flink CDC 2.2.1也不是最新的稳定版,最新的稳定版是Flink CDC 2.4.0。
升级到较新版本,通常能带来性能提升和 Bug 修复。
具体你可以考虑升级到:
Flink 1.14.2 稳定版
Flink CDC 2.4.0 稳定版(支持 SQL Server 2017 的无锁 CDC)
或者
Flink 2.0 incubating 版本
Flink CDC 2.0 incubating 版本(支持 Schema 历史数据重建)
升级步骤大致如下:
升级Flink库和CDC依赖版本
检查各版本的 breaking changes,修改代码
检查原作业配置,是否需要调整
在测试环境重放测试数据,确认升级后的作业状态正常
正式上线新版本
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。