开发者社区> 问答> 正文

Spark的内置项目中的Spark Core的作用是什么?

Spark的内置项目中的Spark Core的作用是什么?

展开
收起
游客daliwbfb2wo66 2021-12-07 18:56:34 401 0
1 条回答
写回答
取消 提交回答
  • 实现了 Spark 的基本功能,包含任务调度、内存管理、错误恢复、与存储系统 交互等模块。Spark Core 中还包含了对弹性分布式数据集(resilient distributed dataset,简称RDD)的 API 定义。

    2021-12-07 19:43:32
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载