请问,flinkcdc 怎么根据表名动态分流写到hdfs不同的目录里啊?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
通过cdc再维护一张表,通过那张表的信息实现分流的。
此答案来自钉钉群“【2】Apache Flink China 社区”
1
回答
请问一个问题,数据通过flink cdc读mysql写入ods层的hudi表,然后再将事实表和维度表
0
各位大佬,idea中测试使用FlinkCDC SQL 读取Mysql 数据写入Kafka中,代码中创
请问,使用flume 消费kafka数据,上传到hdfs,出现重复消费的数据,是什么原因导致的呢
请教个问题 消费flink的cdc数据 如果有多张表 的数据 怎么做既能保证效率 又能比较优
请教个问题,使用flink-cdc同步mysql数据,将mysql中A表和B表数据同步到kudu合并
请问大佬们 有遇到过flink cdc mongdb 执行flinksql 遇到这样的问题的么?
flink cdc 做数据同步 使用kafka 的时候怎么保证顺序消费啊,只能使用一个分区吗
filinCdc 的sql,多表的时候总报这个错,请问下该怎么解决呀
flink消费kafka的数据写入到hdfs中,我采用了BucketingSink 这个sink将o
2
如何实现使用云企业网跨VPC访问文件存储HDFS?