开发者社区> 问答> 正文

Spark的standalone运行模式的运行流程是什么?

Spark的standalone运行模式的运行流程是什么?

展开
收起
游客k7rjnht6hbtk6 2021-12-10 20:45:10 310 0
1 条回答
写回答
取消 提交回答
  • 1)当spark集群启动以后,worker节点会有一个心跳机制和master保持通信;

    2)SparkContext连接到master以后会向master申请资源,而master会根据worker心跳来分配worker的资源,并启动worker的executor进程;

    3)SparkContext将程序代码解析成dag结构,并提交给DagScheduler;

    4)dag会在DagScheduler中分解成很多stage,每个stage包含着多个task;

    5)stage会被提交给TaskScheduler,而TaskScheduler会将task分配到worker,提交给executor进程,executor进程会创建线程池去执行task,并且向SparkContext报告执行情况,直到task完成;

    6)所有task完成以后,SparkContext向Master注销并释放资源;

    2021-12-10 20:45:38
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载

相关实验场景

更多