开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink这个问题怎么解决?

Flink这个问题怎么解决?通过yarn-per-job 提交flink 任务到yarn 上 当一张表写入多个数据源(也就是说有多个insert 语句 StreamStatementSet
)
然后yarn 上有几个insert语句 就会申请几个yarn 任务id 但是
只是只有第一个yarn 任务能到running的状态
其他任务都在ACCEPTED状态

展开
收起
三分钟热度的鱼 2023-11-01 12:57:14 49 0
1 条回答
写回答
取消 提交回答
  • 这个问题可能是由于Flink的任务调度机制导致的。在Flink中,每个StreamExecutionEnvironment都会有一个自己的TaskExecutor,这意味着每个StreamExecutionEnvironment都会有一个自己的YARN Application Master。当你在一个StreamExecutionEnvironment中定义了多个DataSource时,每个DataSource都会对应一个Task,而这些Task都会被分配给同一个TaskExecutor。

    为了解决这个问题,你可以尝试以下几种方法:

    1. 合并DataSource:尽可能地将多个DataSource合并成一个,这样可以减少Task的数量,从而减少YARN Application Master的数量。

    2. 使用同一个StreamExecutionEnvironment:如果你有多个DataSource,但它们的逻辑上是相关的,你可以考虑将它们都放在同一个StreamExecutionEnvironment中。这样,所有的Task都会被分配给同一个TaskExecutor,从而避免多Application Master的问题。

    3. 调整Flink配置:在Flink的配置中,你可以设置parallelism.default参数,用来指定默认的并行度。你可以尝试增加这个参数的值,以便在每个TaskExecutor中启动更多的Task。

    2023-11-02 15:42:44
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载