如图,当以一个应用程序要请求Spark上的资源时, 需要创建一个Driver Program,它会为每个应用程序创建一个Spa rkContext来在运行过程与计算资源进行交互, 完成Spark的计算任务。 之后SparkContext会向Cluster Manager请求资源和计算结点, 而Manager会向结点去询问看看哪个Work Node可以完成当前任务, 而当找到相应的计算结点对应当前的计算任务后, SparkContext会直接向结点发起任务同时获取当前执行状态。同 时每个Work Noded中都有Executo r专门负责任务执行,会和SparkContext进行交互传递,获取当前执行的任务以及状态等。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。