开发者社区 问答 正文

Hadoop中Spark任务是什么?

Hadoop中Spark任务是什么?

展开
收起
芯在这 2021-12-05 19:56:44 355 分享 版权
1 条回答
写回答
取消 提交回答
  • 应用程序:由一个driver program和多个job构成

    job:由多个stage组成

    stage:对应一个taskset

    taskset:对应一组关联的相互之间没有shuffle依赖关系的task组成。

    task:任务最小的工作单元

    2021-12-05 19:58:28
    赞同 展开评论