《Spark与Hadoop大数据分析》一一第3章 深入剖析Apache Spark-阿里云开发者社区

开发者社区> 华章出版社> 正文
登录阅读全文

《Spark与Hadoop大数据分析》一一第3章 深入剖析Apache Spark

简介:

第3章 深入剖析Apache Spark

Apache Spark 的技术、社区和用户群都在快速增长。2015 年推出了两个新的API:DataFrame API 和 DataSet API。这两个 API 构建在基于 RDD 的核心 API 之上。我们有必要了解 RDD 的更深层概念,包括运行时的架构和它在 Spark 各种资源管理器上的表现。
本章分为以下子主题:
启动 Spark 守护进程
Spark 的核心概念
键值对 RDD
Spark 程序的生命周期
Spark 应用程序
持久化和缓存
Spark 资源管理器:Standalone、Yarn和 Mesos

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享: