开发者社区 > 大数据与机器学习 > 开源大数据平台 E-MapReduce > 正文

从前在使用 Hadoop 和 Spark 等分布式处理系统时,用户通常需要经历的步骤有哪些?

已解决

从前在使用 Hadoop 和 Spark 等分布式处理系统时,用户通常需要经历的步骤有哪些?

展开
收起
阿阿里云 2022-04-02 03:47:45 670 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    从前在使用 Hadoop 和 Spark 等分布式处理系统时,用户通常需要经历的步骤如图 2-10 所示。其中,真正与用户应用逻辑相关的是步骤 8 ~ 10,而步骤 1 ~ 7 都是前期准备,但这些前期准备工作都非常烦琐。 2-10.png

    《弹性计算:无处不在的算力》电子书可以通过以下链接下载:https://developer.aliyun.com/topic/download?id=7996"

    2022-04-03 09:57:14
    赞同 展开评论 打赏

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

热门讨论

热门文章

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载