开发者社区> 问答> 正文

Spark在运行架构中DAG计算是怎么完成的呢?

已解决

Spark在运行架构中DAG计算是怎么完成的呢?

展开
收起
每天一个小bug 2022-08-03 08:51:02 471 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    如图,当以一个应用程序要请求Spark上的资源时, 需要创建一个Driver Program,它会为每个应用程序创建一个Spa rkContext来在运行过程与计算资源进行交互, 完成Spark的计算任务。 之后SparkContext会向Cluster Manager请求资源和计算结点, 而Manager会向结点去询问看看哪个Work Node可以完成当前任务, 而当找到相应的计算结点对应当前的计算任务后, SparkContext会直接向结点发起任务同时获取当前执行状态。同 时每个Work Noded中都有Executo r专门负责任务执行,会和SparkContext进行交互传递,获取当前执行的任务以及状态等。 QQ图片20220803122334.png

    2022-08-03 13:03:57
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载