01 引言
在学习Hadoop
之前,我们看看典型的大数据平台架构图:
可以看到Hadoop
在大数据平台里处于一个技术核心的地位,本文来讲解下。
02 Hadoop概述
2.1 Hadoop定义
Hadoop :是使用 Java
编写,允许分布在集群,使用简单的编程模型的计算机大型数据集处理的Apache
的开源框架。
2.2 Hadoop优势
Hadoop的优势:
Hadoop
是专为从单一服务器到上千台机器扩展,每个机器都可以提供本地计算和存储。Hadoop
可以用单节点模式安装,但是只有多节点集群才能发挥Hadoop
的优势,我们可以把集群扩展到上千个节点,而且扩展过程中不需要先停掉集群。
2.3 Hadoop组成
看看Hadoop
由哪些组件组成:
以上的各个组件都是属于Hadoop
的生态系统的,如果想入门大数据,都是需要学习,它们分别是:
- Hadoop HDFS(核心):
Hadoop
分布式存储系统; - Yarn(核心):
Hadoop 2.x
版本开始才有的资源管理系统; - MapReduce(核心):并行处理框架;
- HBase:基于
HDFS
的列式存储数据库,它是一种NoSQL
数据库,非常适用于存储海量的稀疏的数据集; - Hive:
Apache Hive
是一个数据仓库基础工具,它适用于处理结构化数据。它提供了简单的 sql 查询功能,可以将sql
语句转换为MapReduce
任务进行运行; - Pig:它是一种高级脚本语言。利用它不需要开发
Java
代码就可以写出复杂的数据处理程序; - Flume:它可以从不同数据源高效实时的收集海量日志数据;
- Sqoop:适用于在
Hadoop
和关系数据库之间抽取数据; - Oozie:这是一种
Java Web
系统,用于Hadoop
任务的调度,例如设置任务的执行时间和执行频率等; - Zookeeper:用于管理配置信息,命名空间。提供分布式同步和组服务;
- Mahout:可扩展的机器学习算法库。
其中:HDFS
、MapReduce
、YARN
是核心。
2.3.1 HDFS
已有专栏专门讲解,有兴趣的同学可以参考《HDFS专栏》
HDFS :即 Hadoop
分布式文件系统(Hadoop Distribute File System
),以分布式存储的方式存储数据。
HDFS 也是一种 Master-slave
架构,NameNode 是运行 master 节点的进程,它负责命名空间管理和文件访问控制。DataNode 是运行在 slave 节点的进程,它负责存储实际的业务数据,如下图:
2.3.2 MapReduce
已有专栏专门讲解,有兴趣的同学可以参考《MapReduce专栏》
Hadoop MapReduce
是一种编程模型,它是 Hadoop
最重要的组件之一。它用于计算海量数据,并把计算任务分割成许多在集群并行计算的独立运行的 task
。
MapReduce
是 Hadoop
的核心,它会把计算任务移动到离数据最近的地方进行执行,因为移动大量数据是非常耗费资源的。
2.3.3 YARN
Yarn :是一个资源管理系统,其作用就是把资源管理和任务调度/监控功分割成不同的进程,Yarn
有一个全局的资源管理器叫 ResourceManager
,每个 application
都有一个 ApplicationMaster
进程。一个 application
可能是一个单独的 job
或者是 job
的 DAG
(有向无环图)。
在 Yarn 内部有两个守护进程:
- ResourceManager :负责给 application 分配资源
- NodeManager :负责监控容器使用资源情况,并把资源使用情况报告给 ResourceManager。这里所说的资源一般是指CPU、内存、磁盘、网络等。
ApplicationMaster
负责从 ResourceManager
申请资源,并与 NodeManager
一起对任务做持续监控工作。
Yarn
具有下面这些特性:
- 多租户:
Yarn
允许在同样的Hadoop
数据集使用多种访问引擎。这些访问引擎可能是批处理,实时处理,迭代处理等; - 集群利用率:在资源自动分配的情况下,跟早期的
Hadoop
版本相比,Yarn
拥有更高的集群利用率; - 可扩展性:
Yarn
可以根据实际需求扩展到几千个节点,多个独立的集群可以联结成一个更大的集群; - 兼容性:
Hadoop 1.x
的MapReduce
应用程序可以不做任何改动运行在Yarn
集群上面。
2.4 Hadoop工作方式
2.4.1 Hadoop的主从工作方式
Hadoop 以主从的方式工作(如下图):
2.4.2 Hadoop的守护进程
Hadoop
主要有4个守护进程:
- NameNode :它是HDFS运行在Master节点守护进程。
- DataNode:它是 HDFS 运行在Slave节点守护进程。
- ResourceManager:它是 Yarn 运行在 Master 节点守护进程。
- NodeManager:它是 Yarn 运行在 Slave 节点的守护进程。
除了这些,可能还会有 secondary NameNode,standby NameNode,Job HistoryServer
等进程。
03 Hadoop的安装
之前写过关于在Mac系统下安装Hadoop,有兴趣的同学可以参考《Mac下安装Hadoop》
其它系统下不同版本的hadoop安装参考:
04 Hadoop 高可用
NameNode
很容易面临单点故障风险(SPOF
):
- 在
Hadoop 2.0
以前的版本,一旦NameNode
节点挂了,整个集群就不可用了,而且需要借助辅助NameNode
来手工干预重启集群,这将延长集群的停机时间; Hadoop 2.0
版本支持一个备用节点用于自动恢复NameNode
故障;Hadoop 3.0
则支持多个备用NameNode
节点,这使得整个集群变得更加可靠。
为了解决SPOF
故障,Hadoop
必须制定高可用的解决方案。
4.1 Hadoop高可用的解决方案
Hadoop 实现自动故障切换需要用到下面的组件:
- ZooKeeper quorum
- ZKFailoverController 进程(ZKFC)
4.1.1 ZooKeeper quorum
ZooKeeper quorum
是一种集中式服务,主要为分布式应用提供协调、配置、命名空间等功能。它提供组服务和数据同步服务,它让客户端可以实时感知数据的更改,并跟踪客户端故障,HDFS故障自动切换的实现依赖下面两个方面:
- 故障监测:
ZooKeeper
维护一个和NameNode
之间的会话。如果NameNode
发生故障,该会话就会过期,会话一旦失效了,ZooKeeper
将通知其他NameNode
启动故障切换进程。 - 活动NameNode选举:
ZooKeeper
提供了一种活动节点选举机制,只要活动的NameNode
发生故障失效了,其他NameNode
将从ZooKeeper
获取一个排它锁,并把自身声明为活动的NameNode
。
4.1.2 ZKFC
ZKFC 是 ZooKeeper
的监控和管理 namenode
的一个客户端,所以每个运行 namenode
的机器上都会有 ZKFC
。
那ZKFC具体作用是什么?主要有以下3点:
- 状态监控:
ZKFC
会定期用ping
命令监测活动的NameNode
,如果NameNode
不能及时响应ping
命令,那么ZooKeeper
就会判断该活动的NameNode
已经发生故障了。 - ZooKeeper会话管理:如果
NameNode
是正常的,那么它和ZooKeeper
会保持一个会话,并持有一个znode
锁。如果会话失效了,那么该锁将自动释放。 - 基于ZooKeeper的选举:如果
NameNode
是正常的,ZKFC 知道当前没有其他节点持有znode
锁,那么ZKFC
自己会试图获取该锁,如果锁获取成功,那么它将赢得选举,并负责故障切换工作。这里的故障切换过程其实和手动故障切换过程是类似的;先把之前活动的节点进行隔离,然后把ZKFC
所在的机器变成活动的节点。
05 Hadoop 任务调度器
Hadoop 是一个可以高效处理大数据量的分布式集群,并且支持多用户多任务执行。
在Hadoop早期版本是以一种比较简单的方式对任务进行调度的,即FIFO
调度器,它是按任务的提交顺序来调度任务的,并且可以使用mapred.job.priority
配置或者利用 JobClient
的 setJobPriority()
方法设置任务调度优先级。
目前Hadoop
支持三种调度器:FIFO
调度器、公平调度器(Fair Scheduler
)、容量调度器(Capacity Scheduler
)。
5.1 FIFO 调度器
FIFO
调度器也就是平时所说的先进先出(First In First Out
)调度器。可以简单的将其理解为一个 Java
队列,它的含义在于集群中同时只能有一个作业在运行。
队列形式会有什么问题?
FIFO
调度器以集群资源独占的方式来运行作业,这样的好处是一个作业可以充分利用所有的集群资源,但是对于运行时间短,重要性高或者交互式查询类的MR
作业就要等待排在序列前的作业完成才能被执行,这也就导致了如果有一个非常大的Job
在运行,那么后面的作业将会被阻塞。
因此,虽然单一的 FIFO
调度实现简单,但是对于很多实际的场景并不能满足要求。这也就催生了 Capacity
调度器和 Fair
调度器的出现。
5.2 容量调度器(Capacity Scheduler)
Capacity 调度器也就是日常说的容器调度器,可以将它理解成一个个的资源队列,这个资源队列是用户自己去分配的:
举例:如上图,因为工作所需要把整个集群分成了AB两个队列,A队列下面还可以继续分,比如将A队列再分为1和2两个子队列。那么队列的分配就可以参考下面的树形结构:
|___A[60%] |_____A.1[40%] |_____A.2[60%] |___B[40%]
上述的树形结构可以理解为:
- A队列占用整个资源的60%,B队列占用整个资源的40%。
- A队列里面又分了两个子队列,A.1占据40%,A.2占据60%,也就是说此时A.1和A.2分别占用A队列的40%和60%的资源。
- 虽然此时已经具体分配了集群的资源,但是并不是说A提交了任务之后只能使用它被分配到的60%的资源,而B队列的40%的资源就处于空闲。只要是其它队列中的资源处于空闲状态,那么有任务提交的队列可以使用空闲队列所分配到的资源,使用的多少是依据配来决定。
调度器特性特性:
- 层次化的队列设计:这种层次化的队列设计保证了子队列可以使用父队列设置的全部资源;
- 容量保证:队列上都会设置一个资源的占比,这样可以保证每个队列都不会占用整个集群的资源;
- 安全:每个队列又严格的访问控制。
- 弹性分配:空闲的资源可以被分配给任何队列。
- 多租户租用:通过队列的容量限制,多个用户就可以共享同一个集群,同事保证每个队列分配到自己的容量,提高利用率。
- 操作性:
Yarn
支持动态修改调整容量、权限等的分配,可以在运行时直接修改。 - 基于资源的调度:协调不同资源需求的应用程序,比如内存、
CPU
、磁盘等等。
相关参数配置:
参数 | 描述 |
capacity |
队列的资源容量(百分比) |
maximum-capacity |
队列的资源使用上限(百分比) |
user-limit-factor |
每个用户最多可使用的资源量(百分比) |
maximum-applications |
集群或者队列中同时处于等待和运行状态的应用程序数目上限 |
maximum-am-resource-percent |
集群中用于运行应用程序ApplicationMaster的资源比例上限 |
maximum-am-resource-percent |
设置适合自己的值 |
state |
队列状态可以为STOPPED或者RUNNING |
acl_submit_applications |
限定哪些Linux用户/用户组可向给定队列中提交应用程序 |
acl_administer_queue |
为队列指定一个管理员,该管理员可控制该队列的所有应用程序,比如杀死任意一个应用程序等 |
5.3 公平调度器(Fair Scheduler)
Fair调度器也就是日常说的公平调度器。Fair调度器是一个队列资源分配方式,在整个时间线上,所有的Job平均的获取资源。默认情况下,Fair调度器只是对内存资源做公平的调度和分配。
当集群中只有一个任务在运行时,那么此任务会占用整个集群的资源。当其他的任务提交后,那些释放的资源将会被分配给新的Job,所以每个任务最终都能获取几乎一样多的资源。
如上图所示,例如有两个用户A和B,他们分别拥有一个队列:
- 当A启动一个
Job
而B没有任务提交时,A会获得全部集群资源;- 当B启动一个
Job
后,A的任务会继续运行,不过队列A会慢慢释放它的一些资源,一会儿之后两个任务会各自获得一半的集群资源。- 如果此时B再启动第二个
Job
并且其它任务也还在运行时,那么它将会和B队列中的的第一个Job
共享队列B的资源,也就是队列B的两个Job
会分别使用集群四分之一的资源,- 而队列A的
Job
仍然会使用集群一半的资源,结果就是集群的资源最终在两个用户之间平等的共享。
相关参数配置:
参数 | 描述 |
yarn.scheduler.fair.allocation.file |
allocation”文件是一个用来描述queue以及它们的属性的配置文件 |
yarn.scheduler.fair.user-as-default-queue |
是否将与allocation有关的username作为默认的queue name |
yarn.scheduler.fair.preemption |
是否使用“preemption”(优先权,抢占),默认为fasle |
yarn.scheduler.fair.assignmultiple |
是在允许在一个心跳中,发送多个container分配信息 |
yarn.scheduler.fair.max.assign |
如果assignmultuple为true,那么在一次心跳中,最多发送分配container的个数 |
yarn.scheduler.fair.locality.threshold.node |
一个float值,在0~1之间,表示在等待获取满足node-local条件的containers时,最多放弃不满足node-local的container的机会次数,放弃的nodes个数为集群的大小的比例。默认值为-1.0表示不放弃任何调度的机会 |
yarn.scheduler.fair.locality.threashod.rack |
同上,满足rack-local |
yarn.scheduler.fair.sizebaseweight |
是否根据application的大小(Job的个数)作为权重 |