开发者社区> 问答> 正文

spark的工作机制?

spark的工作机制?

展开
收起
不语奈何 2019-11-08 19:04:39 471 0
1 条回答
写回答
取消 提交回答
  • 精于基础,广于工具,熟于业务。

    用户在client端提交作业后,会由Driver运行main方法并创建spark context。

    执行RDD算子,形成DAG图输入DAGSchedular,按照RDD之间的依赖关系划分stage输入TaskSchedular。

    TaskSchedular会将stage划分为task set分发到各个节点的executor中执行。

    2019-11-08 19:07:28
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载