问题一:做flink cdc同步mysql到Doris测试的时候,Flink CDC flinkcdc同步mysql数据源时,有数据,但是无法插入到Doris sink源数据表中,帮忙看看是不是我的参数配置的不对,还是jar包少了,搞了将近2天了,还是搞不好
大家谁能帮我看下,做flink cdc同步mysql到Doris测试的时候,Flink CDC flinkcdc同步mysql数据源时,有数据,但是无法插入到Doris sink源数据表中,帮忙看看是不是我的参数配置的不对,还是jar包少了,搞了将近2天了,还是搞不好
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/471876?spm=a2c6h.14164896.0.0.1bf2d9dfeERj61
问题二:Flink-CDC 采集 Oracle 数据发送到下游 kafka 或其他存储端时, 数据不断膨胀的问题 (例如: Oracle源库9千万, kafka端2~30亿), 如果不手动关闭采集程序数据就会一直进来
Flink-CDC 采集 Oracle 数据发送到下游 kafka 或其他存储端时, 数据不断膨胀的问题 (例如: Oracle源库9千万, kafka端2~30亿), 如果不手动关闭采集程序数据就会一直进来
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/464783?spm=a2c6h.14164896.0.0.7cfbd9dfmRc7WX
问题三:flink cdc mysql源 配置了'debezium.snapshot.mode'='never' ,不起作用,依然会同步全量数据,可能是什么原因呢
flink cdc mysql源 配置了'debezium.snapshot.mode'='never' ,不起作用,依然会同步全量数据,可能是什么原因呢
参考回答:
It is valid only when the binlog is guaranteed to contain the entire history of the database.
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/458535?spm=a2c6h.14164896.0.0.7cfbd9dfmRc7WX
问题四:flink cdc for oracle select * from flinkuser.log_mining_flush这个表数据SCN到当前位置了。但是目标端延迟几个小时,怎么排查是不是目标端写入慢还是源端
flink cdc for oracle select * from flinkuser.log_mining_flush这个表数据SCN到当前位置了。但是目标端延迟几个小时,怎么排查是不是目标端写入慢还是源端
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/452523?spm=a2c6h.14164896.0.0.7cfbd9dfmRc7WX
问题五:通过flink cdc写hudi,如果源表比较大,是不是也需要获取全表的数据后才会做checkp
请问通过flink cdc写hudi,如果源表比较大,是不是也需要获取全表的数据后才会做checkpoint?这样的话很吃内存,可以通过配置什么参数避免这种情况吗?谢谢
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/442671?spm=a2c6h.14164896.0.0.7cfbd9dfmRc7WX