开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

尝试在3台768G内存机器上跑1000个Flink任务,但面临配置问题导致任务无法正常运行怎么办?

尝试在3台768G内存机器上跑1000个Flink任务,但面临配置问题导致任务无法正常运行。尽管调整了Yarn虚拟内存至超过物理内存,配置JobManager为1024可以运行880个任务,仍然存在内存分配不均和Swap满载的问题。调整单个任务的TaskManager(默认1500)后仍出现内存溢出,有解决办法吗?

展开
收起
小小鹿鹿鹿 2024-03-19 23:07:13 34 0
1 条回答
写回答
取消 提交回答
  • 如果并行度是多个的话,一个任务会有多个tm,可以手动kill掉分布不均的机器上的tm,不会影响flink的任务运行,只要不全部杀死,会重新分配,只不过这种方式比较粗暴。tm可以先根据负载重的机器ip去找 会快些。102df3588fed37a721300682e50eeb18.png此回答来自钉群Flink CDC 社区。

    2024-03-20 11:07:15
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载