开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC我全量同步mysql,75w,11G数据,TM给了2G,还是oom?

Flink CDC我全量同步mysql,75w,11G数据,TM给了2G,还是oom?467c48f490b938d0df5bad17b14c737e.png
有什么可以优化的吗?

展开
收起
真的很搞笑 2023-12-01 00:47:06 127 0
3 条回答
写回答
取消 提交回答
  • Flink的内存使用主要取决于以下几个因素:

    1. 并行度:并行度越高,每个并行实例处理的数据越少,需要的内存也越少。你可以尝试降低并行度。

    2. 时间窗口:如果设置了时间窗口,并且窗口大小设置得过大,可能会导致内存溢出。可以减小时间窗口的大小。

    3. 数据处理逻辑:检查你的数据处理逻辑是否有问题,例如无限循环、大对象引用等。

    4. 数据格式:数据序列化后的字节数也会影响内存占用。可以考虑使用更紧凑的数据格式。

    5. 配置参数:检查flink的配置参数,如taskmanager的内存分配是否合理。

    6. 数据倾斜:数据分布不均也会导致某些并行实例处理的数据过多,导致内存溢出。可以通过调整数据分布策略来解决这个问题。

    建议从以上几个方面进行排查和优化。

    2023-12-02 17:20:20
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    根据您提供的信息,Flink CDC全量同步MySQL 75W,11G数据,TM(Task Manager)分配了2G内存,可能会导致OOM(Out Of Memory)错误。

    Flink CDC全量同步MySQL 75W,11G数据需要大量的内存来存储中间结果和缓冲数据。如果TM分配的内存不足,可能会导致内存溢出错误。

    为了解决这个问题,您可以尝试以下几种方法:

    1. 增加TM的内存分配。您可以尝试增加TM的内存分配,以确保有足够的内存来处理全量同步任务。但是,需要注意的是,增加内存可能会导致其他任务的性能下降。

    2. 分批同步数据。您可以尝试将数据分成多个较小的批次进行同步,以减少内存使用。这种方法可能会增加同步任务的总时间,但是可以避免OOM错误。

    3. 使用其他工具或方法进行同步。如果您发现Flink CDC全量同步MySQL 75W,11G数据时经常出现OOM错误,您可以考虑使用其他工具或方法进行同步,例如使用JDBC连接MySQL数据库进行数据同步。

    2023-12-01 14:22:37
    赞同 展开评论 打赏
  • "jm给2g试试,你这数据太少了

    ,此回答整理自钉群“Flink CDC 社区”"

    2023-12-01 12:06:05
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载

    相关镜像