开发者社区 > 大数据与机器学习 > 正文

Flink CDC 2.0 提出了增量快照算法后,通过切片能够将 checkpoint 粒度降至 c

Flink CDC 2.0 提出了增量快照算法后,通过切片能够将 checkpoint 粒度降至 chunk, 并且 chunk 大小是用户可配置的,默认是 8096 条,用户可以将其调至更小,减轻 writer 的压力,减少内存资源的使用,提升下游写入存储时的稳定性,这个调整参数有谁知道吗?

展开
收起
真的很搞笑 2023-04-26 14:50:12 165 0
1 条回答
写回答
取消 提交回答
  • image.png 你已经用strarocks了,还需要其他db来干嘛能,你的olap用它就够了,不会是过去的那种,查mysql,业务不想改,你想把sr的结果写过去,此回答整理自钉群“Flink CDC 社区”

    2023-04-27 15:47:02
    赞同 展开评论 打赏

大数据领域前沿技术分享与交流,这里不止有技术干货、学习心得、企业实践、社区活动,还有未来。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    数据+算法定义新世界 立即下载
    袋鼠云基于实时计算的反黄牛算法 立即下载
    Alink:基于Apache Flink的算法平台 立即下载