《循序渐进学Spark》一导读

简介:
Preface 前  言
Spark诞生于美国加州大学伯克利分校AMP实验室。随着大数据技术在互联网、金融等领域的突破式进展,Spark在近些年得到更为广泛的应用。这是一个核心贡献者超过一半为华人的大数据平台开源项目,且正处于飞速发展、快速成熟的阶段。
为什么写这本书
Spark已经成为大数据计算、分析领域新的热点和发展方向。相对于Hadoop传统的MapReduce计算模型,Spark提供更为高效的计算框架以及更为丰富的功能,因此在大数据生产应用领域中不断攻城略地,势如破竹。
与企业不断涌现的对大数据技术的需求相比,大数据人才还存在很大缺口,对大数据技术充满期许的新人正在源源不断地加入这个领域。在小象学院的教学实践过程中,我们发现,一本能完整系统地介绍Spark各模块原理并兼顾使用实战的书,对于初入大数据领域的技术人员至关重要。于是,我们根据日常积累的经验,著成本书。
Spark作为一个高速发展的开源项目,最近也发布了全新的Spark 2.0版本。对于Spark 2.0版本的新特性,我们也专门给予描述,以期将最前沿的Spark技术奉献给读者。
本书面向的读者
Spark初学者
Spark应用开发人员
Spark运维人员
大数据技术爱好者
如何阅读本书
本书共分8章:
第1章介绍了Spark大数据处理框架的基本概念、主要组成部分、基本架构,以及Spark集群环境搭建和Spark开发环境的构建方法。
第2章引入Spark编程中的核心——RDD弹性分布式数据集,以典型的编程范例,讲解基于RDD的算子操作。
第3章主要讲述了Spark的工作机制与原理,剖析了Spark的提交和执行时的具体机制,重点强调了Spark程序的宏观执行过程。此外,更深入地剖析了Spark的存储及IO、通信机制、容错机制和Shuffle机制。 
第4章对Spark的代码布局做了宏观介绍,并对Spark的执行主线进行详细剖析,从代码层面详细讲述RDD是如何落地到Worker上执行的。同时,本章从另一个角度分析了Client、Master与Worker之间的交互过程,深入讲述了Spark的两个重要功能点及Spark Shuffle与Spark存储机制。
第5章介绍了YARN的基本原理及基于YARN的Spark程序提交,并结合从程序提交到落地执行的过程,详细介绍了各个阶段的资源管理和调度职能。在本章的后半部分,主要从资源配置的角度对YARN及基于YARN的Spark做了较为详细的介绍。
第6章一一讲解了BDAS中的主要模块。由Spark SQL开始,介绍了Spark SQL及其编程模型和DataFrame。接着深入讲解Spark生态中用于流式计算的模块Spark Streaming。之后,讲解了Spark R的基本概念及操作。 最后针对机器学习的流行趋势,重点介绍了Spark MLlib的架构及编程应用,以及机器学习的基本概念和基本算法。
第7章首先详细叙述了Spark调优的几个重要方面,接着给出了工业实践中常见的一些问题,以及解决问题的常用策略,最后启发读者在此基础上进一步思考和探索。 
第8章描述了Spark 2.0.0发布之后,Spark Core、Spark SQL、MLlib、Spark Streaming、Spark R等模块API的变化以及新增的功能特性等。对于变化较大的Spark SQL,书中用实际的代码样例更详细地说明和讲解了SparkSession、结构化Streaming等新特性。
对于Spark的初学者或希望从零开始详细了解Spark技术的读者,请从第1章开始通读全书;对于有一定Spark基础的研究者,可从第4章开始阅读;如果只想了解Spark最基本的原理,阅读第1~3章即可。
资源和勘误
本书大量资源来源于小象学院专家团队在大数据项目开发以及Spark教学课程中的经验积累。本书内容的撰写也参考了大量官方文档(http://spark.apache.org/)。
由于Spark技术正在飞速发展,加之笔者水平有限,书中难免存在谬误,也可能存
在若干技术细节描述不详尽之处,恳请读者批评指正。欢迎大家关注微信服务号“小象学院”,把您的意见或者建议反馈给我们。
致谢
首先应该感谢Apache Spark的开源贡献者们,Spark是当今大数据领域伟大的开源项目之一,没有这一开源项目,便没有本书。
本书以小象学院git项目方式管理。感谢姜冰钰、陈超、冼茂源等每一位内容贡献者,感谢他们花费大量时间,将自己对Spark的理解加上在实际工作、学习过程中的体会,融汇成丰富的内容。
感谢本书的审阅者樊明璐、杨福川、李艺,他们对本书的内容和结构提供了非常宝贵的意见。




目  录 Contents
前 言
1.1.1 Spark概述    
1.1.2 Spark生态    
1.1.3 Spark架构    
1.2.1 安装OpenJDK    
1.2.2 安装Scala   
1.2.3 配置SSH免密码登录    
1.2.4 Hadoop的安装配置    
1.2.5 Spark的安装部署    
1.2.6 Hadoop与Spark的集群复制    
1.4.1 Intellij的安装    
1.4.2 Intellij的配置    
2.1.1 RDD简介    
2.1.2 深入理解RDD    
2.1.3 RDD特性总结    
2.3.1 算子简介    
2.3.2 Value型Transmation算子    
2.3.3 Key-Value型Transmation算子    
2.3.4 Action算子    
3.1.1 Spark应用的基本概念    
3.1.2 Spark应用执行机制概要    
3.1.3 应用提交与执行    
3.2.1 Application的调度    
3.2.2 job的调度    
3.2.3 stage(调度阶段)和TasksetManager的调度    
3.2.4 task的调度    
3.3.1 Spark存储系统概览    
3.3.2 BlockManager中的通信    
3.4.1 分布式通信方式    
3.4.2 通信框架AKKA    
3.4.3 Client、Master和Worker之间的通信    
3.5.1 Lineage(血统)机制    
3.5.2 Checkpoint(检查点)机制    
3.6.1 什么是Shuffle    
3.6.2 Shuffle历史及细节    
第4章 深入Spark内核    
4.1 Spark代码布局    
4.1.1 Spark源码布局简介    
4.1.2 Spark Core内模块概述    
4.1.3 Spark Core外模块概述    
4.2 Spark执行主线[RDD→Task]剖析    
4.2.1 从RDD到DAGScheduler    
4.2.2 从DAGScheduler到TaskScheduler    
4.2.3 从TaskScheduler到Worker节点    
4.3 Client、Master和Worker交互过程剖析    
4.3.1 交互流程概览  
4.3.2 交互过程调用   
4.4 Shuffle触发   
4.4.1 触发Shuffle Write   
4.4.2 触发Shuffle Read    
4.5 Spark存储策略    
4.5.1 CacheManager职能    
4.5.2 BlockManager职能    
4.5.3 DiskStore与DiskBlock--Manager类    
4.5.4 MemoryStore类    
4.6 本章小结    
第5章 Spark on YARN    
5.1 YARN概述    
5.2 Spark on YARN的部署模式    
5.3 Spark on YARN的配置重点    
5.3.1 YARN的自身内存配置    
5.3.2 Spark on YARN的重要配置    
5.4 本章小结    
第6章 BDAS 生态主要模块    
6.1 Spark SQL    
6.1.1 Spark SQL概述    
6.1.2 Spark SQL的架构分析    
6.1.3 Spark SQL如何使用    
6.2 Spark Streaming    
6.2.1 Spark Streaming概述    
6.2.2 Spark Streaming的架构分析    
6.2.3 Spark Streaming编程模型    
6.2.4 数据源Data Source    
6.2.5 DStream操作    
6.3 SparkR    
6.3.1 R语言概述    
6.3.2 SparkR简介    
6.3.3 DataFrame创建    
6.3.4 DataFrame操作    
6.4 MLlib on Spark    
6.4.1 机器学习概述    
6.4.2 机器学习的研究方向与问题    
6.4.3 机器学习的常见算法    
6.4.4 MLlib概述    
6.4.5 MLlib架构    
6.4.6 MLlib使用实例——电影推荐    
6.5 本章小结    
第7章 Spark调优    
7.1 参数配置    
7.2 调优技巧    
7.2.1 序列化优化    
7.2.2 内存优化    
7.2.3 数据本地化    
7.2.4 其他优化考虑    
7.3 实践中常见调优问题及思考    
7.4 本章小结    
第8章 Spark 2.0.0    
8.1 功能变化    
8.1.1 删除的功能    
8.1.2 Spark中发生变化的行为    
8.1.3 不再建议使用的功能    
8.2 Core以及Spark SQL的改变    
8.2.1 编程API    
8.2.2 多说些关于SparkSession    
8.2.3 SQL    
8.3 MLlib    
8.3.1 新功能    
8.3.2 速度/扩展性    
8.4 SparkR    
8.5 Streaming    
8.5.1 初识结构化Streaming    
8.5.2 结构化Streaming编程模型    
8.5.3 结果输出    
8.6 依赖、打包    
8.7 本章小结    
相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
存储 分布式计算 大数据
|
3月前
|
机器学习/深度学习 SQL 分布式计算
Apache Spark 的基本概念和在大数据分析中的应用
介绍 Apache Spark 的基本概念和在大数据分析中的应用
159 0
|
13天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
3月前
|
机器学习/深度学习 SQL 分布式计算
介绍 Apache Spark 的基本概念和在大数据分析中的应用。
介绍 Apache Spark 的基本概念和在大数据分析中的应用。