开发者社区> 问答> 正文

SparkContext的主要工作是什么?

SparkContext的主要工作是什么?

展开
收起
游客fbdr25iajcjto 2021-12-12 23:39:45 2643 0
1 条回答
写回答
取消 提交回答
  • 1.创建SparkEnv,里面有一个很重要的对象ActorSystem

    2.创建TaskScheduler,这里是根据提交的集群来创建相应的TaskScheduler

    3.对于TaskScheduler,主要的任务调度模式有FIFO和FAIR

    4.在SparkContext中创建了两个Actor,一个是DriverActor,这里主要用于Driver和Executor之间的通信;还有一个是ClientActor,主要用于Driver和Master之间的通信。

    5.创建DAGScheduler,其实这个是用于Stage的划分

    6.调用taskScheduler.start()方法启动,进行资源调度,有两种资源分配方法,一种是尽量打散;一种是尽量集中

    7.Driver向Master注册,发送了一些信息,其中一个重要的类是CoarseGrainedExecutorBackend,这个类以后用于创建Executor进程。

    2021-12-12 23:40:16
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
SparkSQL实践与优化 立即下载
# Apache Spark系列技术直播# 第五讲【 Spark RDD编程入门 】 立即下载
Spark on Supercomputers: A Tal 立即下载