Hadoop集群管理

简介: 版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/51474289 HDFS...
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/51474289

HDFS进程目录结构

对于一个集群管理员来说,理解HDFS各个进程存储在磁盘上的数据含义是十分有用的,可以帮助你诊断和排查一些集群问题

Namenode的目录结构

HDFS进行初次格式化之后将会在$dfs.namenode.name.dir/current目录下生成一些列文件:

${dfs.namenode.name.dir}/
├── current  
│ ├── VERSION  
│ ├── edits_0000000000000000001-0000000000000000007  
│ ├── edits_0000000000000000008-0000000000000000015  
│ ├── edits_0000000000000000016-0000000000000000022  
│ ├── edits_0000000000000000023-0000000000000000029  
│ ├── edits_0000000000000000030-0000000000000000030  
│ ├── edits_0000000000000000031-0000000000000000031  
│ ├── edits_inprogress_0000000000000000032  
│ ├── fsimage_0000000000000000030  
│ ├── fsimage_0000000000000000030.md5  
│ ├── fsimage_0000000000000000031  
│ ├── fsimage_0000000000000000031.md5  
│ └── seen_txid  
└── in_use.lock

VERSION文件的内容是一些HDFS的ID信息,比较重要的是fsimage、edits和seen_txid

fsimage中存储的是HDFS的元数据信息,包括文件系统上的文件目录和相关序列化的信息。
edits文件保存的是HDFS上的更新操作信息。
seen_txid文件保存的是一个数字,就是最后一个edits_的数字。

每次Namenode启动的时候都会将fsimage文件读入内存,并从00001开始到seen_txid中记录的数字依次执行每个edits里面的更新操作,
保证内存中的元数据信息是最新的、同步的,可以看成Namenode启动的时候就将fsimage和edits文件进行了合并。

集群启动的之后,每次对HDFS的更新操作都会写入edits文件。
对于客户端来说,每次写操作都会先记录到edits文件中,之后更新Namenode内存中的元数据信息。

对于一个长期运行中的集群来说,edits文件会一直增大,SecondaryNamenode会在运行的时候定期将edits文件合并到fsimage中
否则一旦集群重新启动,Namenode合并fsimage和edits使用的时间将会非常久

SecondaryNamenode会运行一个checkpoint进程来进行合并操作:

1.SecondaryNamenode告知Namenode停止当前edits文件的读写,并将操作写入一个新的edits文件,同时更新seen_txid文件
2.通过HTTP Get请求从Namenode中获得fsimage和edits文件
3.加载fsimage文件到内存(和Namenode内存一致的原因),并执行edits文件中的每个操作,产生一个新的fsimage
4.通过HTTP Put将新的fsimage文件发送到Namenode中,保存为一个.ckpt文件
5.Namenode重命名.ckpt文件使其生效

默认情况下,SecondaryNamenode每隔一个小时就会进行以上的操作,通过dfs.namenode.checkpoint.period以秒为单位来配置
另外,如果未到达配置的时间而edits文件大小达到dfs.namenode.checkpoint.txns配置的值时也会进行合并操作
每隔dfs.namenode.checkpoint.check.period指定的时间检查一个edits文件的大小

SecondaryNamenode的目录结构

SecondaryNamenode的current目录和Namenode是类似的,但是其还保留着一个previous.checkpoint目录
数据存储的目录由dfs.namenode.checkpoint.dir指定
顾名思义,就是上一个检查点的目录,其结构是和current目录一致的
如此一来当Namenode挂了之后可以从SecondaryNamenode上启动一个新的Namenode(即使可能不是最新的元数据)
有两种方式可以实现:

1.将相关的存储目录复制到新Namenode指定目录中
2.在SecondaryNamenode上使用-importCheckpoint选项来启动Namenode进程

第二种方式会将指定目录下的元数据加载到内存中从而成为一个新的Namenode
该目录由dfs.namenode.checkpoint.dir指定(前提是dfs.namenode.name.dir目录下找不到元数据信息)

Datanode的目录结构

和Namenode不一样的是,Datanode的目录并不需要进行格式化来创建,如下:

${dfs.datanode.data.dir}/
├── current  
│ ├── BP-1079595417-192.168.2.45-1412613236271  
│ │ ├── current  
│ │ │ ├── VERSION  
│ │ │ ├── finalized  
│ │ │ │ └── subdir0  
│ │ │ │ └── subdir1  
│ │ │ │ ├── blk_1073741825  
│ │ │ │ └── blk_1073741825_1001.meta  
│ │ │ │── lazyPersist  
│ │ │ └── rbw  
│ │ ├── dncp_block_verification.log.curr  
│ │ ├── dncp_block_verification.log.prev  
│ │ └── tmp  
│ └── VERSION  
└── in_use.lock  

blk开头的文件就是存储HDFS block的数据块

  • VERSION:与Namenode类似
  • finalized/rbw目录:于实际存储HDFS BLOCK的数据,里面包含许多block_xx文件以及相应的.meta文件,.meta文件包含了checksum信息
  • dncp_block_verification.log:用于追踪每个block最后修改后的checksum值
  • in_use.lock:防止一台机器同时启动多个Datanode进程导致目录数据不一致

安全模式

安全模式是指Namenode在刚启动的时候,加载fsimage合并edits文件的过程,一旦加载完毕将会在磁盘中为自己创建一个新的fsimage和空的edits文件
该过程中无法对文件系统进行写操作

关于安全模式的一些命令:

  • hadoop dfsadmin -safemode get:查询是够处于安全模式
  • hadoop dfsadmin -safemode wait:执行某命令以前先退出安全模式
  • hadoop dfsadmin -safemode enter:进入安全模式
  • hadoop dfsadmin -safemode leave:退出安全模式

管理工具

dfsadmin

hadoop dfsadmin既可以查询HDFS状态信息,也可以进行HDFS管理操作,用途较广
该命令参数较多,可以使用-help选项来查看使用帮助

fsck

即为Filesystem check,文件系统检查,可以得到HDFS指定目录的健康状态信息
该工具可以找出HDFS上缺失、过多、过少或者损坏的数据块
fsck将从Namenode中获得所有信息,而不会去Datanode获取真实的block数据

hadoop fsck /user/heybiiiiii/part-00007 -files -blocks -racks

以上命令演示了如何通过fsck工具来为一个文件查找其block信息

  • -files:显示该文件的文件名、大小、block数量和健康状态
  • -blocks:显示该文件每个block信息,每行一条信息
  • -racks:显示每个block所在的Datanode和机架位置信息

Datanode的块扫描器

每个Datanode都运行着一个块扫描器定期检测节点上的所有块
从而在客户端读到损坏的数据块之前及时的检车和修复
默认情况下每个504个小时(三周)会自动检查一个,该值可以通过dfs.datanode.scan.period.hours选项来配置
用户可以通过访问
http://datanode:50075/blockScanerReport
来查看该Datanode的块检测报告

Balancer

随着时间的推移,各个Datanode上的数据的分布会越来越不均衡,这样会降低MapReduce的数据本地性导致性能降低,部分Datanode相对繁忙
balancer能够将数据从繁忙的Datanode中迁移到较为空闲的Datanode,从而从新分配数据块,在迁移数据的过程中也会始终坚持HDFS的副本存放策略

balancer一旦启动,将会不断地移动数据,直至集群中的数据达到一个平衡的状态
该状态通过该节点已用空间和整个集群可用空间之比集群中已用空间和整个集群可用空间之比来判断
一个集群中只能运行一个balancer程序,命令如下:

start-balancer.sh

通过-threshold选型来指定一个阈值以判断集群是否平衡,默认为10%

日常运维

元数据备份

一旦元数据出现损坏,整个集群将无法工作,所以元数据的备份是非常重要的
可以在系统中分别保存不同时间点的备份(一小时、一天、一周或者一个月)以保护元数据

一个最直接的方法就是使用dfsadmin命令来下载一个Namenode最新的元数据副本:

hdfs dfsadmin -fetchImage fsimage.backup

可以通过一个脚本定时在异地站点存储元数据信息

数据备份

尽管HDFS的数据容错性做的很好,但是我们仍然不能够保证其永远不会出错
HDFS上的数据备份可以通过distcp工具来实现集群数据的复制
具体使用方法请参考:

文件系统检查

建议定期使用fsck工具对HDFS上的数据块进行检查,主动查找丢失或者损坏的数据块

文件系统均衡

定期运行balancer程序以保证各个Datanode的数据平衡

添加和删除节点

hdfs-site.xml和yarn-site.xml文件中分别有以下属性:

  • dfs.hosts:运行连接的Datanode列表
  • dfs.hosts.exclude:不允许连接的Datanode列表
  • yarn.resourcemanager.nodes.include-path:允许连接的NodeManager列表
  • yarn.resourcemanager.nodes.exclude-path:不允许连接的NodeManager列表

添加节点

过程如下:

1.将新机器的地址加入以上允许连接的列表中
2.使用hdfs dfsadmin -refreshNodes/yarn rmadmin -refreshNodes命令重新读取配置
3.在slaves文件中添加该节点信息,使得hadoop脚本文件可以读取到
4.在新节点配置完之后启动Datanode和NodeManager进程
5.可以在We界面查看该节点是否上线

注意:HDFS不会自动将数据迁移到新节点,需要手动启动balancer进程

删除节点

过程如下:

1.将新机器的地址加入以上不允许连接的列表中
2.使用hdfs dfsadmin -refreshNodes/yarn rmadmin -refreshNodes命令重新读取配置
3.在Web界面可以看到该节点处于Decommission in progress状态,节点上的数据将会被迁移到其他节点中
4.当节点处于Decommissioned状态时表示数据块复制完毕,关闭该节点上的进程
5.从允许连接的列表中移除该节点并重新执行命令刷新配置
6.在slaves文件中移除该节点

注意,副本数量要小于或者等于正常节点的数量,否则删除失败

【已解决】删除节点时,该节点长期处于Decommission Status : Decommission in progress状态,由于数据量太大,导致复制的时间很久,使用新集群测试时瞬间下线该节点

集群升级

在升级集群之前可以现在一个测试集群上进行测试确保升级无误之后再在生产集群上进行升级

仅当文件系统健康时才能进行升级,所以在升级之前使用fsck工具对文件系统进行检查
最好保留检查结果,对比升级前和升级后的信息

升级之前最好清空临时文件,包括HDFS、MapReduce系统目录和本地临时文件

升级步骤如下:

1.升级之前确保前一升级已经定妥
2.关闭Yarn和MapReduce进程
3.关闭HDFS进程并备份元数据目录
4.在集群中安装新版本的Hadoop
5.使用-upgrade选项来启动HDFS
6.等待等级完成
7.检查HDFS是否运行正常
8.启动Yarn和MapReduce进程
9.回滚(可选操作)

步骤5中使用的命令如下:

${NEW_HADOOP}/bin/start-dfs.sh -upgrade

该命令的结果是让Namenode升级元数据,并将前一版本放在名为previous目录下,Datanode的操作类似

步骤6中,可以使用dfsadmin工具来查看升级进度:

${NEW_HADOOP}/bin/hdfs dfsadmin -upgradeProgress status

如果需要对升级进行回滚,则进行步骤9的操作:

首先关闭HDFS进程
使用-rollback选项来启动旧版本的Hadoop进程:

${OLD_HADOOP}/in/start-dfs.sh -rollback

该命令会让Namenode和Datanode使用升级之前的副本替换当前存储目录,文件系统恢复之前的状态ghe

作者:@小黑

相关文章
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop集群管理:向繁琐的计算源创建Say ByeBye
为了解决Hadoop计算源创建复杂、维护困难的问题,Dataphin在V4.4 版本推出了Hadoop集群管理功能,支持用户引用集群信息进行计算源的创建,大大提高用户的创建和维护效率。
|
4月前
|
资源调度 分布式计算 Hadoop
揭秘Hadoop Yarn三大调度器:如何玩转资源分配,实现高效集群管理?
【8月更文挑战第24天】Hadoop YARN(Another Resource Negotiator)是一款强大的集群资源管理工具,主要负责高效分配及管理Hadoop集群中的计算资源。本文深入剖析了YARN的三种调度器:容量调度器(Capacity Scheduler)、公平调度器(Fair Scheduler)以及FIFO调度器,并通过具体的配置示例和Java代码展示了它们的工作机制。
99 2
|
4月前
|
图形学 C# 开发者
Unity粒子系统全解析:从基础设置到高级编程技巧,教你轻松玩转绚丽多彩的视觉特效,打造震撼游戏画面的终极指南
【8月更文挑战第31天】粒子系统是Unity引擎的强大功能,可创建动态视觉效果,如火焰、爆炸等。本文介绍如何在Unity中使用粒子系统,并提供示例代码。首先创建粒子系统,然后调整Emission、Shape、Color over Lifetime等模块参数,实现所需效果。此外,还可通过C#脚本实现更复杂的粒子效果,增强游戏视觉冲击力和沉浸感。
276 0
|
存储 分布式计算 监控
|
分布式计算 算法 大数据
hadoop集群管理系统搭建规划说明
Hadoop分布式集群环境搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功。但对新手来说,运行环境搭建不成功的概率还蛮高的。
1496 0
|
分布式计算 算法 大数据
|
分布式计算 资源调度 大数据
|
2月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
185 6
|
2月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
78 2
|
2天前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
23 4