问题1:flink mysql to hudi 写入特别慢 那个大哥 可以帮忙分析下? 1分钟才写入两万的数据 太慢了,那个大哥碰到过?会更新的 问题2:那我先用COPY_ON_WRITE 一次性写入全量数据,还能再改为MERGE_ON_READ 接增量的数据么,这个不太行 领导不让中间再加kafka了,我先把hudi这个测同 再试试那个 两个对比下
回答1:hudi后台要做合并的肯定慢的,如果你数据不会更新的话,可以用追加写就快了,那确实快不了,或者你可以考虑去下游做合并或者去重,那你可以只追加写,hudi写入+合并就是不快的,'table.type' = 'COPY_ON_WRITE',改成这个就快了,但是只会追加写 回答2:那你可以用cdc把数据写到kafka,你先COPY_ON_WRITE 一次性写入全量数据,然后把任务停掉,改成MERGE_ON_READ,指定offset启动,此回答整理自钉群“Flink CDC 社区”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。