flinkcdc 2.x的使用文档打不开了,有人知道链接地址吗?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
根据现有知识库内容,Flink CDC 2.x版本的文档链接无法直接提供,但可以为您整理相关的使用说明和配置指导,帮助您快速上手 Flink CDC 2.x 版本。以下是详细信息:
Flink CDC 2.x 版本相较于早期版本有一些重要的变更,主要包括以下几点: - Group ID 变更:从 2.0.0 版本开始,Flink CDC 的 Maven 仓库路径发生了变化,group id
从 com.alibaba.ververica
改为 com.ververica
。因此,如果您在 Maven 中查找 2.x 版本的依赖,请确保路径为 /com/ververica
。 - SNAPSHOT 版本的获取:如果您需要使用 flink-sql-connector-mysql-cdc-2.2-SNAPSHOT.jar
等开发分支版本,由于这些版本未发布到 Maven 中央仓库,您需要下载源码并自行编译生成对应的 JAR 文件。
如果您希望使用稳定的 Flink CDC 2.x 版本,可以直接从 Maven 中央仓库获取。例如:
<dependency>
<groupId>com.ververica</groupId>
<artifactId>flink-sql-connector-mysql-cdc</artifactId>
<version>2.1.0</version>
</dependency>
注意:请根据实际需求选择合适的版本号(如 2.1.0
或更高版本)。
SNAPSHOT 版本对应的是开发分支代码,通常不会直接发布到 Maven 中央仓库。如果需要使用该版本,您可以: 1. 下载 Flink CDC 源码。 2. 使用 Maven 或 Gradle 编译生成对应的 JAR 文件。
建议优先使用稳定版本(如 2.1.0
),以避免潜在的兼容性问题。
lib
目录即可。以下是一些常见的 Flink CDC 2.x 配置示例:
在 DataStream API 中构建 MySQL CDC Source 时,可以通过 tableList
参数指定需要同步的表。例如:
MySqlSource<String> mySqlSource = MySqlSource.<String>builder()
.hostname("localhost")
.port(3306)
.databaseList("my_database")
.tableList("my_database.my_table") // 注意:必须使用模式名
.username("root")
.password("password")
.deserializer(new JsonDebeziumDeserializationSchema())
.build();
在 DataStream API 中构建 PostgreSQL CDC Source 时,tableList
参数同样需要使用模式名。例如:
PostgresSource<String> postgresSource = PostgresSource.<String>builder()
.hostname("localhost")
.port(5432)
.database("my_database")
.schemaList("my_schema")
.tableList("my_schema.my_table") // 必须使用模式名
.username("postgres")
.password("password")
.deserializer(new JsonDebeziumDeserializationSchema())
.build();
Debezium 参数支持:Flink CDC 2.x 支持部分 Debezium 参数。例如,可以通过 properties
配置数值类型的解析方式:
Properties properties = new Properties();
properties.setProperty("bigint.unsigned.handling.mode", "long");
properties.setProperty("decimal.handling.mode", "double");
MySqlSource.<String>builder()
.debeziumProperties(properties);
注意:具体参数支持情况请参考 Debezium 官方文档。
MongoDB CDC 支持:Flink CDC 2.x 支持 MongoDB 的全量+增量读取、多集合订阅以及 Checkpoint 恢复功能。如果作业失败,可以从 Checkpoint 继续读取。
虽然 Flink CDC 2.x 的官方文档可能暂时无法访问,但通过上述内容,您可以快速了解其核心功能、配置方法以及常见问题的解决方案。如果仍有疑问,建议参考 Flink CDC 的 GitHub 仓库或联系技术支持获取进一步帮助。
重要提醒:在使用 SNAPSHOT 版本时,请确保您的环境能够正确编译和运行相关代码,避免因依赖问题导致作业失败。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。