开发者社区> 问答> 正文

Spark为什么要持久化,一般什么场景下要进行persist操作?

Spark为什么要持久化,一般什么场景下要进行persist操作?

展开
收起
xin在这 2021-12-07 17:03:52 359 0
1 条回答
写回答
取消 提交回答
  • spark所有复杂一点的算法都会有persist身影,spark默认数据放在内存,spark很多内容都是放在内存的,非常适合高速迭代,1000个步骤

    只有第一个输入数据,中间不产生临时数据,但分布式系统风险很高,所以容易出错,就要容错,rdd出错或者分片可以根据血统算出来,如果没有对父rdd进行persist 或者cache的化,就需要重头做。

    2021-12-07 17:04:09
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载