开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

尝试在3台768G内存机器上跑1000个Flink任务,但面临配置问题导致任务无法正常运行怎么办?

尝试在3台768G内存机器上跑1000个Flink任务,但面临配置问题导致任务无法正常运行。尽管调整了Yarn虚拟内存至超过物理内存,配置JobManager为1024可以运行880个任务,仍然存在内存分配不均和Swap满载的问题。调整单个任务的TaskManager(默认1500)后仍出现内存溢出,有解决办法吗?

展开
收起
小小鹿鹿鹿 2024-03-19 23:07:13 81 0
1 条回答
写回答
取消 提交回答
  • 如果并行度是多个的话,一个任务会有多个tm,可以手动kill掉分布不均的机器上的tm,不会影响flink的任务运行,只要不全部杀死,会重新分配,只不过这种方式比较粗暴。tm可以先根据负载重的机器ip去找 会快些。102df3588fed37a721300682e50eeb18.png此回答来自钉群Flink CDC 社区。

    2024-03-20 11:07:15
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    Flink峰会 - 李佳林 立即下载
    内存取证与IaaS云平台恶意行 为的安全监控 立即下载
    云服务器ECS内存增强型实例re6全新发布 立即下载