开发者社区> 问答> 正文

Spark的计算模型是什么?

Spark的计算模型是什么?

展开
收起
芯在这 2021-12-08 22:18:55 289 0
1 条回答
写回答
取消 提交回答
  • 用户程序对 RDD 通过多个函数进行操作,将 RDD 进行转换。

    Block-Manager 管理 RDD 的物理分区,每个 Block 就是节点上对应的一个数据块,可以存储在内存或者磁盘。

    而 RDD 中的 partition 是一个逻辑数据块,对应相应的物理块 Block。

    本质上一个 RDD 在代码中相当于是数据的一个元数据结构,存储着数据分区及其逻辑结构映射关系,存储着 RDD 之前的依赖转换关系。

    2021-12-08 22:24:16
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载