开发者社区> 问答> 正文

Spark的核心组件是什么?

Spark的核心组件是什么?

展开
收起
xin在这 2021-12-05 20:04:17 428 0
1 条回答
写回答
取消 提交回答
  • Spark的核心组件包括RDD、Scheduler、Storage、Shuffle四部分:

    RDD是Spark最核心最精髓的部分,Spark将所有数据都抽象成RDD。 Scheduler是Spark的调度机制,分为DAGScheduler和TaskScheduler。 Storage模块主要管理缓存后的RDD、shuffle中间结果数据和broadcast数据 Shuffle分为Hash方式和Sort方式,两种方式的shuffle中间数据都写本地盘

    2021-12-05 22:22:37
    赞同 展开评论 打赏
问答分类:
问答标签:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载