开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

各位大佬,请教个问题, flink jdbc connector 批量写入数据,如果数据没达到批量

各位大佬,请教个问题, flink jdbc connector 批量写入数据,如果数据没达到批量的话,会一只不写入吗?

展开
收起
圆葱猪肉包 2023-03-21 14:41:50 228 0
2 条回答
写回答
取消 提交回答
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    Flink JDBC connector 默认是批量写入数据的,当数据未达到批量大小时,Flink JDBC connector 会缓存这些数据,并等待更多的数据加入缓存,以满足批量写入的要求。但是如果等待时间过长或缓存数据量一直未达到批量大小,Flink JDBC connector 可能会超时并将缓存的数据写入数据库。

    2023-03-21 18:19:14
    赞同 展开评论 打赏
  • 6ae82b4bb2b428f9a4d38b4123330f94.png。此回答整理自钉群“【③群】Apache Flink China社区”

    2023-03-21 16:02:25
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载