耗时一个月,整理出这份Hadoop吐血宝典(三)

简介: Hadoop宝典

10. datanode工作机制以及数据存储


  • datanode工作机制


  1. 一个数据块在datanode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。


  1. DataNode启动后向namenode注册,通过后,周期性(1小时)的向namenode上报所有的块信息。(dfs.blockreport.intervalMsec)。


  1. 心跳是每3秒一次,心跳返回结果带有namenode给该datanode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个datanode的心跳,则认为该节点不可用。


  1. 集群运行中可以安全加入和退出一些机器。


  • 数据完整性


  1. 当DataNode读取block的时候,它会计算checksum。
  2. 如果计算后的checksum,与block创建时值不一样,说明block已经损坏。
  3. client读取其他DataNode上的block。
  4. datanode在其文件创建后周期验证checksum。


  • 掉线时限参数设置


datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:


timeout = 2 * dfs.namenode.heartbeat.recheck-interval + 10 * dfs.heartbeat.interval。


而默认的dfs.namenode.heartbeat.recheck-interval 大小为5分钟,dfs.heartbeat.interval默认为3秒。


需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒。


<property>
    <name>dfs.namenode.heartbeat.recheck-interval</name>
    <value>300000</value>
</property>
<property>
    <name>dfs.heartbeat.interval </name>
    <value>3</value>
</property>


  • DataNode的目录结构


和namenode不同的是,datanode的存储目录是初始阶段自动创建的,不需要额外格式化。


在/opt/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas/current这个目录下查看版本号


cat VERSION 
    #Thu Mar 14 07:58:46 CST 2019
    storageID=DS-47bcc6d5-c9b7-4c88-9cc8-6154b8a2bf39
    clusterID=CID-dac2e9fa-65d2-4963-a7b5-bb4d0280d3f4
    cTime=0
    datanodeUuid=c44514a0-9ed6-4642-b3a8-5af79f03d7a4
    storageType=DATA_NODE
    layoutVersion=-56


具体解释:


storageID:存储id号。


clusterID集群id,全局唯一。


cTime属性标记了datanode存储系统的创建时间,对于刚刚格式化的存储系统,这个属性为0;但是在文件系统升级之后,该值会更新到新的时间戳。


datanodeUuid:datanode的唯一识别码。


storageType:存储类型。


layoutVersion是一个负整数。通常只有HDFS增加新特性时才会更新这个版本号。


  • datanode多目录配置


datanode也可以配置成多个目录,每个目录存储的数据不一样。即:数据不是副本。具体配置如下:


- 只需要在value中使用逗号分隔出多个存储目录即可


cd /opt/hadoop-2.6.0-cdh5.14.0/etc/hadoop
  <!--  定义dataNode数据存储的节点位置,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割  -->
          <property>
                  <name>dfs.datanode.data.dir</name>
                  <value>file:///opt/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas</value>
          </property>


10.1 服役新数据节点


需求说明:


随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。


10.1.1 环境准备


  1. 复制一台新的虚拟机出来


将我们纯净的虚拟机复制一台出来,作为我们新的节点


  1. 修改mac地址以及IP地址


修改mac地址命令
  vim /etc/udev/rules.d/70-persistent-net.rules
修改ip地址命令
  vim /etc/sysconfig/network-scripts/ifcfg-eth0


  1. 关闭防火墙,关闭selinux


关闭防火墙
  service iptables stop
关闭selinux
  vim /etc/selinux/config


  1. 更改主机名


更改主机名命令,将node04主机名更改为node04.hadoop.com
vim /etc/sysconfig/network


  1. 四台机器更改主机名与IP地址映射


四台机器都要添加hosts文件
vim /etc/hosts
192.168.52.100 node01.hadoop.com  node01
192.168.52.110 node02.hadoop.com  node02
192.168.52.120 node03.hadoop.com  node03
192.168.52.130 node04.hadoop.com  node04


  1. node04服务器关机重启


node04执行以下命令关机重启
  reboot -h now


  1. node04安装jdk


node04统一两个路径
  mkdir -p /export/softwares/
  mkdir -p /export/servers/


然后解压jdk安装包,配置环境变量


  1. 解压hadoop安装包


在node04服务器上面解压hadoop安装包到/export/servers , node01执行以下命令将hadoop安装包拷贝到node04服务器
  cd /export/softwares/
  scp hadoop-2.6.0-cdh5.14.0-自己编译后的版本.tar.gz node04:$PWD
node04解压安装包
  tar -zxf hadoop-2.6.0-cdh5.14.0-自己编译后的版本.tar.gz -C /export/servers/


  1. 将node01关于hadoop的配置文件全部拷贝到node04


node01执行以下命令,将hadoop的配置文件全部拷贝到node04服务器上面
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
  scp ./* node04:$PWD


10.1.2 服役新节点具体步骤


  1. 创建dfs.hosts文件


在node01也就是namenode所在的机器的/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop目录下创建dfs.hosts文件
[root@node01 hadoop]# cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
[root@node01 hadoop]# touch dfs.hosts
[root@node01 hadoop]# vim dfs.hosts
添加如下主机名称(包含新服役的节点)
node01
node02
node03
node04


  1. node01编辑hdfs-site.xml添加以下配置


在namenode的hdfs-site.xml配置文件中增加dfs.hosts属性


node01执行以下命令 :
cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
vim hdfs-site.xml
# 添加一下内容
  <property>
         <name>dfs.hosts</name>
         <value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts</value>
    </property>
    <!--动态上下线配置: 如果配置文件中有, 就不需要配置-->
    <property>
    <name>dfs.hosts</name>
    <value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/accept_host</value>
  </property>
  <property>
    <name>dfs.hosts.exclude</name>
    <value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/deny_host</value>
  </property>


  1. 刷新namenode


  • node01执行以下命令刷新namenode


[root@node01 hadoop]# hdfs dfsadmin -refreshNodes
Refresh nodes successful


  1. 更新resourceManager节点


  • node01执行以下命令刷新resourceManager


[root@node01 hadoop]# yarn rmadmin -refreshNodes
19/03/16 11:19:47 INFO client.RMProxy: Connecting to ResourceManager at node01/192.168.52.100:8033


  1. namenode的slaves文件增加新服务节点主机名称


node01编辑slaves文件,并添加新增节点的主机,更改完后,slaves文件不需要分发到其他机器上面去


node01执行以下命令编辑slaves文件 :
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
  vim slaves
添加一下内容:   
node01
node02
node03
node04


  1. 单独启动新增节点


node04服务器执行以下命令,启动datanode和nodemanager : 
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/
  sbin/hadoop-daemon.sh start datanode
  sbin/yarn-daemon.sh start nodemanager


  1. 使用负载均衡命令,让数据均匀负载所有机器


node01执行以下命令 : 
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/
  sbin/start-balancer.sh


10.2 退役旧数据


  1. 创建dfs.hosts.exclude配置文件


在namenod所在服务器的/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop目录下创建dfs.hosts.exclude文件,并添加需要退役的主机名称


node01执行以下命令 : 
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
  touch dfs.hosts.exclude
  vim dfs.hosts.exclude
添加以下内容:
  node04.hadoop.com
特别注意:该文件当中一定要写真正的主机名或者ip地址都行,不能写node04


  1. 编辑namenode所在机器的hdfs-site.xml


编辑namenode所在的机器的hdfs-site.xml配置文件,添加以下配置


cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
vim hdfs-site.xml
#添加一下内容:
  <property>
         <name>dfs.hosts.exclude</name>
         <value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts.exclude</value>
   </property>


  1. 刷新namenode,刷新resourceManager


在namenode所在的机器执行以下命令,刷新namenode,刷新resourceManager : 
hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes


  1. 节点退役完成,停止该节点进程


等待退役节点状态为decommissioned(所有块已经复制完成),停止该节点及节点资源管理器。注意:如果副本数是3,服役的节点小于等于3,是不能退役成功的,需要修改副本数后才能退役。


node04执行以下命令,停止该节点进程 : 
  cd /export/servers/hadoop-2.6.0-cdh5.14.0
  sbin/hadoop-daemon.sh stop datanode
  sbin/yarn-daemon.sh stop nodemanager


  1. 从include文件中删除退役节点


namenode所在节点也就是node01执行以下命令删除退役节点 :
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
  vim dfs.hosts
删除后的内容: 删除了node04
node01
node02
node03


  1. node01执行一下命令刷新namenode,刷新resourceManager


hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes


  1. 从namenode的slave文件中删除退役节点


namenode所在机器也就是node01执行以下命令从slaves文件中删除退役节点 : 
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
  vim slaves
删除后的内容: 删除了 node04 
node01
node02
node03


  1. 如果数据负载不均衡,执行以下命令进行均衡负载


node01执行以下命令进行均衡负载
  cd /export/servers/hadoop-2.6.0-cdh5.14.0/
  sbin/start-balancer.sh


11. block块手动拼接成为完整数据


所有的数据都是以一个个的block块存储的,只要我们能够将文件的所有block块全部找出来,拼接到一起,又会成为一个完整的文件,接下来我们就来通过命令将文件进行拼接:


  1. 上传一个大于128M的文件到hdfs上面去


我们选择一个大于128M的文件上传到hdfs上面去,只有一个大于128M的文件才会有多个block块。


这里我们选择将我们的jdk安装包上传到hdfs上面去。


node01执行以下命令上传jdk安装包


cd /export/softwares/
hdfs dfs -put jdk-8u141-linux-x64.tar.gz  /


  1. web浏览器界面查看jdk的两个block块id


这里我们看到两个block块id分别为


1073742699和1073742700


那么我们就可以通过blockid将我们两个block块进行手动拼接了。


  1. 根据我们的配置文件找到block块所在的路径


根据我们hdfs-site.xml的配置,找到datanode所在的路径
<!--  定义dataNode数据存储的节点位置,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割  -->
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas</value>
        </property>
进入到以下路径 : 此基础路径为 上述配置中value的路径
cd /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas/current/BP-557466926-192.168.52.100-1549868683602/current/finalized/subdir0/subdir3


  1. 执行block块的拼接


将不同的各个block块按照顺序进行拼接起来,成为一个完整的文件
cat blk_1073742699 >> jdk8u141.tar.gz
cat blk_1073742700 >> jdk8u141.tar.gz
移动我们的jdk到/export路径,然后进行解压
mv  jdk8u141.tar.gz /export/
cd /export/
tar -zxf jdk8u141.tar.gz
正常解压,没有问题,说明我们的程序按照block块存储没有问题


12. HDFS其他重要功能


1. 多个集群之间的数据拷贝


在我们实际工作当中,极有可能会遇到将测试集群的数据拷贝到生产环境集群,或者将生产环境集群的数据拷贝到测试集群,那么就需要我们在多个集群之间进行数据的远程拷贝,hadoop自带也有命令可以帮我们实现这个功能


  1. 本地文件拷贝scp


cd /export/softwares/
scp -r jdk-8u141-linux-x64.tar.gz root@node02:/export/


  1. 集群之间的数据拷贝distcp


cd /export/servers/hadoop-2.6.0-cdh5.14.0/
bin/hadoop distcp hdfs://node01:8020/jdk-8u141-linux-x64.tar.gz  hdfs://cluster2:8020/


2. hadoop归档文件archive


每个文件均按块存储,每个块的元数据存储在namenode的内存中,因此hadoop存储小文件会非常低效。因为大量的小文件会耗尽namenode中的大部分内存。但注意,存储小文件所需要的磁盘容量和存储这些文件原始内容所需要的磁盘空间相比也不会增多。例如,一个1MB的文件以大小为128MB的块存储,使用的是1MB的磁盘空间,而不是128MB。


Hadoop存档文件或HAR文件,是一个更高效的文件存档工具,它将文件存入HDFS块,在减少namenode内存使用的同时,允许对文件进行透明的访问。具体说来,Hadoop存档文件可以用作MapReduce的输入。


创建归档文件


  • 第一步:创建归档文件


注意:归档文件一定要保证yarn集群启动


cd /export/servers/hadoop-2.6.0-cdh5.14.0
bin/hadoop archive -archiveName myhar.har -p /user/root /user


  • 第二步:查看归档文件内容


hdfs dfs -lsr /user/myhar.har
hdfs dfs -lsr har:///user/myhar.har


  • 第三步:解压归档文件


hdfs dfs -mkdir -p /user/har
hdfs dfs -cp har:///user/myhar.har/* /user/har/


3. hdfs快照snapShot管理


快照顾名思义,就是相当于对我们的hdfs文件系统做一个备份,我们可以通过快照对我们指定的文件夹设置备份,但是添加快照之后,并不会立即复制所有文件,而是指向同一个文件。当写入发生时,才会产生新文件


  1. 快照使用基本语法


1、 开启指定目录的快照功能
  hdfs dfsadmin  -allowSnapshot  路径 
2、禁用指定目录的快照功能(默认就是禁用状态)
  hdfs dfsadmin  -disallowSnapshot  路径
3、给某个路径创建快照snapshot
  hdfs dfs -createSnapshot  路径
4、指定快照名称进行创建快照snapshot
  hdfs dfs  -createSanpshot 路径 名称    
5、给快照重新命名
  hdfs dfs  -renameSnapshot  路径 旧名称  新名称
6、列出当前用户所有可快照目录
  hdfs lsSnapshottableDir  
7、比较两个快照的目录不同之处
  hdfs snapshotDiff  路径1  路径2
8、删除快照snapshot
  hdfs dfs -deleteSnapshot <path> <snapshotName>


  1. 快照操作实际案例


1、开启与禁用指定目录的快照
    [root@node01 hadoop-2.6.0-cdh5.14.0]# hdfs dfsadmin -allowSnapshot /user
    Allowing snaphot on /user succeeded
    [root@node01 hadoop-2.6.0-cdh5.14.0]# hdfs dfsadmin -disallowSnapshot /user
    Disallowing snaphot on /user succeeded
2、对指定目录创建快照
  注意:创建快照之前,先要允许该目录创建快照
    [root@node01 hadoop-2.6.0-cdh5.14.0]# hdfs dfsadmin -allowSnapshot /user
    Allowing snaphot on /user succeeded
    [root@node01 hadoop-2.6.0-cdh5.14.0]# hdfs dfs -createSnapshot /user    
    Created snapshot /user/.snapshot/s20190317-210906.549
  通过web浏览器访问快照
  http://node01:50070/explorer.html#/user/.snapshot/s20190317-210906.549
3、指定名称创建快照
    [root@node01 hadoop-2.6.0-cdh5.14.0]# hdfs dfs -createSnapshot /user mysnap1
    Created snapshot /user/.snapshot/mysnap1
4、重命名快照
  hdfs dfs -renameSnapshot /user mysnap1 mysnap2
5、列出当前用户所有可以快照的目录
  hdfs lsSnapshottableDir
6、比较两个快照不同之处
    hdfs dfs -createSnapshot /user snap1
    hdfs dfs -createSnapshot /user snap2
    hdfs snapshotDiff  snap1 snap2
7、删除快照
  hdfs dfs -deleteSnapshot /user snap1


4. hdfs回收站


任何一个文件系统,基本上都会有垃圾桶机制,也就是删除的文件,不会直接彻底清掉,我们一把都是将文件放置到垃圾桶当中去,过一段时间之后,自动清空垃圾桶当中的文件,这样对于文件的安全删除比较有保证,避免我们一些误操作,导致误删除文件或者数据


  1. 回收站配置两个参数


默认值fs.trash.interval=0,0表示禁用回收站,可以设置删除文件的存活时间。

默认值fs.trash.checkpoint.interval=0,检查回收站的间隔时间。

要求fs.trash.checkpoint.interval<=fs.trash.interval。


  1. 启用回收站


修改所有服务器的core-site.xml配置文件


<!--  开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟 -->
        <property>
                <name>fs.trash.interval</name>
                <value>10080</value>
        </property>


  1. 查看回收站


回收站在集群的 /user/root/.Trash/ 这个路径下


  1. 通过javaAPI删除的数据,不会进入回收站,需要调用moveToTrash()才会进入回收站


//使用回收站的方式: 删除数据
    @Test
    public void  deleteFile() throws Exception{
        //1. 获取FileSystem对象
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://node01:8020"), configuration, "root");
        //2. 执行删除操作
        // fileSystem.delete();  这种操作会直接将数据删除, 不会进入垃圾桶
        Trash trash = new Trash(fileSystem,configuration);
        boolean flag = trash.isEnabled(); // 是否已经开启了垃圾桶机制
        System.out.println(flag);
        trash.moveToTrash(new Path("/quota"));
        //3. 释放资源
        fileSystem.close();
    }


  1. 恢复回收站数据


hdfs dfs -mv trashFileDir hdfsdir

trashFileDir :回收站的文件路径

hdfsdir :将文件移动到hdfs的哪个路径下


  1. 清空回收站


hdfs dfs -expunge

相关实践学习
基于EBS部署高性能的MySQL服务
如果您通常是通过ECS实例部署MySQL来使用数据库服务,您可以参考本实验操作来搭建高性能的MySQL服务。本实验为您演示如何通过EBS ESSD云盘部署一个高性能的MySQL服务。
相关文章
|
存储 分布式计算 资源调度
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(上)
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】
343 0
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(上)
|
存储 分布式计算 资源调度
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)(下)
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)(下)
155 0
|
分布式计算 资源调度 安全
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)(上)
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)
470 0
|
分布式计算 资源调度 Hadoop
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(下)
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(下)
120 0
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(下)
|
存储 分布式计算 安全
吐血整理的Hadoop最全开发指南【环境准备篇】(下)
吐血整理的Hadoop最全开发指南【环境准备篇】(下)
218 0
吐血整理的Hadoop最全开发指南【环境准备篇】(下)
|
SQL 分布式计算 安全
吐血整理的Hadoop最全开发指南【环境准备篇】(上)
吐血整理的Hadoop最全开发指南【环境准备篇】
176 0
吐血整理的Hadoop最全开发指南【环境准备篇】(上)
|
分布式计算 资源调度 并行计算

相关实验场景

更多