开发者社区 问答 正文

Hadoop中Spark组件是什么?

Hadoop中Spark组件是什么?

展开
收起
芯在这 2021-12-05 19:59:00 291 分享 版权
1 条回答
写回答
取消 提交回答
  • Driver Program (驱动程序) :Spark 的核心组件 构建SparkContext(Spark应用的入口,它负责和整个集群的交互,创建需要的变量,还包含集群的配置信息等) 将用户提交的job转换为DAG图(类似数据处理的流程图) 根据策略将DAG图划分为多个stage,根据分区从而生成一系列tasks 根据tasks要求向资源管理器申请资源 提交任务并检测任务状态

    Executor 真正执行task的单元,一个Worker Node上可以有多个Executor

    2021-12-05 22:22:36
    赞同 展开评论