开发者社区> 问答> 正文

Spark架构中的SparkContext是怎么知晓任务完成的呢?

已解决

Spark架构中的SparkContext是怎么知晓任务完成的呢?

展开
收起
每天一个小bug 2022-08-03 08:28:05 559 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    因为SparkContext的子任务TaskScheduler会在分配完结点任务后得到结点中Task完成的状态,而TaskScheduler得到结点任务的完成状态后会传给上一个子任务DAGScheduler,DAGScheduler再传给RDD DAG最后传达给SparkContext。SparkContext最后就会知道任务全部完成。

    2022-08-03 13:03:55
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载