开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

请教一个sql作业做把postgresql同步到hudi,源表历史数据比较多,存量同步时需要把并行度

请教一个sql作业做把postgresql同步到hudi,源表历史数据比较多,存量同步时需要把并行度设置比较大才能尽快同步过来,可是实时的数据量不大,这样到了实时阶段并行度就浪费了, 如果手工重启就太麻烦了,咱们cdc connector怎么配置能自动到了实时阶段把并行度自动调小?

展开
收起
十一0204 2023-04-05 10:08:19 242 0
1 条回答
写回答
取消 提交回答
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    可以考虑使用Apache NiFi来完成PostgreSQL到Hudi的同步,并根据当前数据量自动调整并行度。使用NiFi的GetPostgreSQL和PutHudi处理器来分别读取PostgreSQL和写入Hudi。

    2023-04-08 20:31:29
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

热门讨论

热门文章

相关电子书

更多
SQL Server 2017 立即下载
GeoMesa on Spark SQL 立即下载
原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载

相关镜像