开发者社区> 问答> 正文

Spark的SparkContext中执行了哪些子任务呢?

已解决

Spark的SparkContext中执行了哪些子任务呢?

展开
收起
每天一个小bug 2022-08-03 08:51:02 391 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    当客户端向Spark提交一个请求完成某个计算时D river首先创建了一个SparkContext, 此时SparkContext还会向CluserManager申请到计算结点Worker ,当得到相关的计算结点后, SparkContext的子任务如下:

    1.首先为任务创建一个RDD DAG,即RDD的一个抽象数据集 而数据集的转换抽象的依赖关系就在此创建。

    2.为DAG安排一个DAGScheduler,负责如何执行一个个DAG任务

    3.创建TaskScheduler通过TaskScheduler来将任务交给结点具体的Excutor来完成。QQ图片20220803122338.png

    2022-08-03 13:03:56
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载