开发者社区> 问答> 正文

Spark如何解决迭代计算?

Spark如何解决迭代计算?

展开
收起
游客coqayqskxr2xe 2021-12-06 20:37:57 792 0
1 条回答
写回答
取消 提交回答
  • 其主要实现思想就是RDD,把所有计算的数据保存在分布式的内存中.迭代计算通常情况下都是对同一个数据集做反复的迭代计算,数据在内存中将大大提升IO操作.这也是Spark涉及的核心:内存计算.

    2021-12-06 20:39:26
    赞同 展开评论 打赏
问答分类:
问答标签:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载