问题1:请问Flinkcdc中 flink 1.17 使用 EmbeddedRocksDBStateBackend会报错
Could not load the native RocksDB library
但 1.16和1.14就不会报错,我需要更新本地的RocksDB 版本吗?
问题2:请问你用的jdk是什么版本,我现在用idea运行,1.16以下是没报错。
在 Flink CDC 中,如果您使用了 RocksDB 状态后端,需要根据您的 Flink 版本和 RocksDB 版本来决定是否需要更新本地的 RocksDB 版本。
具体来说,Flink 版本和 RocksDB 版本之间的兼容关系如下表所示:
Flink 版本 RocksDB 版本
1.11.x 5.13.x
1.12.x 5.13.x
1.13.x 6.15.x
1.14.x 6.20.x
1.15.x 6.20.x
如果您的 Flink 版本和 RocksDB 版本不兼容,则需要更新本地的 RocksDB 版本。在更新 RocksDB 版本之前,建议您备份 RocksDB 数据库,以免数据丢失。更新 RocksDB 版本的具体步骤如下:
下载并安装新版本的 RocksDB。
将原有的 RocksDB 数据库迁移到新版本的 RocksDB。可以使用 RocksDB 提供的命令行工具 db_convert 来完成迁移。例如,以下命令可以将旧版本的 RocksDB 数据库迁移到新版本:
sh
Copy
./db_convert --db= --new_db= --column_family= --to=rocksdb --threads=
在上述命令中, 是旧版本的 RocksDB 数据库路径, 是新版本的 RocksDB 数据库路径, 是列族名称, 是迁移线程数。
更新 Flink 的依赖项,以便 Flink 可以使用新版本的 RocksDB。您可以在 Flink 的 pom.xml 文件中更新 RocksDB 的版本号,然后重新编译和打包 Flink。
回答1:这是自带的,不需要你去单独部署 是不是java版本太旧了。最低要求8 除了版本系统是不是也升级了,目标平台不同也会导致这个问题,默认flink是x86的 不然就要自己在目标平台去构建了。
回答2:我是 idea jdk11。debezium不支持17 很多都不支持17。此回答整理至钉群“Flink CDC 社区”。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。