开发者社区> 问答> 正文

Spark(分布式计算框架)是什么?

Spark(分布式计算框架)是什么?

展开
收起
游客mm5dulkpivqdo 2021-12-04 15:20:40 410 0
1 条回答
写回答
取消 提交回答
  • Spark是一种基于内存的分布式并行计算框架,不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

    2021-12-04 15:25:35
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载

相关实验场景

更多