开发者社区> 问答> 正文

Spark(分布式计算框架)是什么?

Spark(分布式计算框架)是什么?

展开
收起
游客mm5dulkpivqdo 2021-12-04 15:20:40 413 0
1 条回答
写回答
取消 提交回答
  • Spark是一种基于内存的分布式并行计算框架,不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

    2021-12-04 15:25:35
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
基于社区的分布式 风险感知模型 立即下载
如何利用Redisson分布式化传统Web项目 立即下载
FLASH:大规模分布式图计算引擎及应用 立即下载

相关实验场景

更多