开发者社区 问答 正文

Apache Spark中的RDD持久性是什么?

Apache Spark中的RDD持久性是什么?

展开
收起
游客daliwbfb2wo66 2021-12-07 19:51:19 229 分享 版权
1 条回答
写回答
取消 提交回答
  • Apache Spark中一个主要的能力就是在集群内存中持久化/缓存RDD。这将显著地提升交互速度。Spark使用Least Recently Used (LRU)算法来移除缓存中旧的、不常用的RDD,从而释放出更多可用内存。同样还提供了一个unpersist() 操作来强制移除缓存/持久化的RDD。

    2021-12-07 19:51:39
    赞同 展开评论