问题一:Flink cdc现有job加表是怎么做的?要不要重启?
Flink cdc现有job加表是怎么做的?要不要重启?
参考答案:
目前不支持,参数没暴露出来。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/602726
问题二:Flink CDC 能实现 mysql_to_mysql的整库同步吗?
Flink CDC 能实现 mysql_to_mysql的整库同步吗?
参考答案:
用spark,或者Airbyte。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/602724
问题三:flinkcdc采集oracle中的数据是不是不支持blob的类型?
flinkcdc采集oracle中的数据是不是不支持blob的类型?我这里获取blob的数据的得到的是空是为什么?
参考答案:
blob 映射为 BYTES 试一下。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/602720
问题四:Flink CDC 里为什么换了3.0后所有类都找不到了?
Flink CDC 里为什么换了3.0后所有类都找不到了?
参考答案:
pipeline连接器和原有的连接器不一样,按需加载不同的包。或者maven下载的包乱了,清空reimport解决。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/602717
问题五:Flink CDC 里启动多个job清洗会对原数据库的Binlog有什么影响吗?有什么推荐的方式吗?
Flink CDC中,启动多个job清洗会对原数据库的Binlog有什么影响吗?有什么推荐的方式吗?另外就是通过job把数据发送到kafka然后再进行消费是吗?
参考答案:
是,通常是起一个job写kafka,按照你自己的业务需求分区,之后起清洗job进行消费;也可以在一个job中source解binlog并行1,之后分流提高并行度,这样编程难度会大很多。不如加消息队列稳定性好。看你具体的数据量还有数据库的tps,结合你自己的硬件资源,配置下kafka消息的清理策略,队列的读写并发上一般很难打满。
关于本问题的更多回答可点击进行查看: