耗时一个月,整理出这份Hadoop吐血宝典(二)

简介: Hadoop宝典

5. hdfs的高级使用命令


5.1 HDFS文件限额配置


在多人共用HDFS的环境下,配置设置非常重要。特别是在 Hadoop 处理大量资料的环境,如果没有配额管理,很容易把所有的空间用完造成别人无法存取。HDFS 的配额设定是针对目录而不是针对账号,可以让每个账号仅操作某一个目录,然后对目录设置配置。


HDFS 文件的限额配置允许我们以文件个数,或者文件大小来限制我们在某个目录下上传的文件数量或者文件内容总量,以便达到我们类似百度网盘网盘等限制每个用户允许上传的最大的文件的量。


hdfs dfs -count -q -h /user/root/dir1  #查看配额信息


结果:


image.png


5.1.1 数量限额


hdfs dfs  -mkdir -p /user/root/dir    #创建hdfs文件夹
hdfs dfsadmin -setQuota 2  dir      # 给该文件夹下面设置最多上传两个文件,发现只能上传一个文件


hdfs dfsadmin -clrQuota /user/root/dir  # 清除文件数量限制


5.1.2 空间大小限额


在设置空间配额时,设置的空间至少是 block_size * 3 大小


hdfs dfsadmin -setSpaceQuota 4k /user/root/dir   # 限制空间大小4KB
hdfs dfs -put  /root/a.txt  /user/root/dir


生成任意大小文件的命令:


dd if=/dev/zero of=1.txt  bs=1M count=2     #生成2M的文件


清除空间配额限制


hdfs dfsadmin -clrSpaceQuota /user/root/dir


5.2 HDFS 的安全模式


安全模式是hadoop的一种保护机制,用于保证集群中的数据块的安全性。当集群启动的时候,会首先进入安全模式。当系统处于安全模式时会检查数据块的完整性。


假设我们设置的副本数(即参数dfs.replication)是3,那么在datanode上就应该有3个副本存在,假设只存在2个副本,那么比例就是2/3=0.666。hdfs默认的副本率0.999。我们的副本率0.666明显小于0.999,因此系统会自动的复制副本到其他dataNode,使得副本率不小于0.999。如果系统中有5个副本,超过我们设定的3个副本,那么系统也会删除多于的2个副本。


在安全模式状态下,文件系统只接受读数据请求,而不接受删除、修改等变更请求。在,当整个系统达到安全标准时,HDFS自动离开安全模式。30s


安全模式操作命令


hdfs  dfsadmin  -safemode  get #查看安全模式状态
    hdfs  dfsadmin  -safemode  enter #进入安全模式
    hdfs  dfsadmin  -safemode  leave #离开安全模式


6. HDFS 的 block 块和副本机制


HDFS 将所有的文件全部抽象成为 block 块来进行存储,不管文件大小,全部一视同仁都是以 block 块的统一大小和形式进行存储,方便我们的分布式文件系统对文件的管理。


所有的文件都是以 block 块的方式存放在 hdfs 文件系统当中,在 Hadoop 1 版本当中,文件的 block 块默认大小是 64M,Hadoop 2 版本当中,文件的 block 块大小默认是128M,block块的大小可以通过 hdfs-site.xml 当中的配置文件进行指定。


<property>
    <name>dfs.block.size</name>
    <value>块大小 以字节为单位</value> //只写数值就可以
</property>


6.1 抽象为block块的好处


  1. 一个文件有可能大于集群中任意一个磁盘
    10T*3/128 = xxx块 2T,2T,2T 文件方式存—–>多个block块,这些block块属于一个文件
  2. 使用块抽象而不是文件可以简化存储子系统
  3. 块非常适合用于数据备份进而提供数据容错能力和可用性


6.2 块缓存


通常 DataNode 从磁盘中读取块,但对于访问频繁的文件,其对应的块可能被显示的缓存在 DataNode 的内存中,以堆外块缓存的形式存在。默认情况下,一个块仅缓存在一个DataNode的内存中,当然可以针对每个文件配置DataNode的数量。作业调度器通过在缓存块的DataNode上运行任务,可以利用块缓存的优势提高读操作的性能。


例如:


连接(join)操作中使用的一个小的查询表就是块缓存的一个很好的候选。 用户或应用通过在缓存池中增加一个cache directive来告诉namenode需要缓存哪些文件及存多久。


缓存池(cache pool)是一个拥有管理缓存权限和资源使用的管理性分组。


例如:


一个文件 130M,会被切分成2个block块,保存在两个block块里面,实际占用磁盘130M空间,而不是占用256M的磁盘空间


6.3 hdfs的文件权限验证


hdfs的文件权限机制与linux系统的文件权限机制类似


r:read w:write x:execute


权限x对于文件表示忽略,对于文件夹表示是否有权限访问其内容


如果linux系统用户zhangsan使用hadoop命令创建一个文件,那么这个文件在HDFS当中的owner就是zhangsan


HDFS文件权限的目的,防止好人做错事,而不是阻止坏人做坏事。HDFS相信你告诉我你是谁,你就是谁


6.4 hdfs的副本因子


为了保证block块的安全性,也就是数据的安全性,在hadoop2当中,文件默认保存三个副本,我们可以更改副本数以提高数据的安全性


在hdfs-site.xml当中修改以下配置属性,即可更改文件的副本数


<property>
     <name>dfs.replication</name>
     <value>3</value>
</property>


7. HDFS 文件写入过程(非常重要)


image.png


  1. Client 发起文件上传请求,通过 RPC 与 NameNode 建立通讯, NameNode 检查目标文件是否已存在,父目录是否存在,返回是否可以上传;


  1. Client 请求第一个 block 该传输到哪些 DataNode 服务器上;


  1. NameNode 根据配置文件中指定的备份数量及机架感知原理进行文件分配, 返回可用的 DataNode 的地址如:A, B, C;


Hadoop 在设计时考虑到数据的安全与高效, 数据文件默认在 HDFS 上存放三份, 存储策略为本地一份,同机架内其它某一节点上一份,不同机架的某一节点上一份。


  1. Client 请求 3 台 DataNode 中的一台 A 上传数据(本质上是一个 RPC 调用,建立 pipeline ),A 收到请求会继续调用 B,然后 B 调用 C,将整个 pipeline 建立完成, 后逐级返回 client;


  1. Client 开始往 A 上传第一个 block(先从磁盘读取数据放到一个本地内存缓存),以 packet 为单位(默认64K),A 收到一个 packet 就会传给 B,B 传给 C。A 每传一个 packet 会放入一个应答队列等待应答;


  1. 数据被分割成一个个 packet 数据包在 pipeline 上依次传输,在 pipeline 反方向上, 逐个发送 ack(命令正确应答),最终由 pipeline 中第一个 DataNode 节点 A 将 pipelineack 发送给 Client;


  1. 当一个 block 传输完成之后,Client 再次请求 NameNode 上传第二个 block,重复步骤 2;


7.1 网络拓扑概念


在本地网络中,两个节点被称为“彼此近邻”是什么意思?在海量数据处理中,其主要限制因素是节点之间数据的传输速率——带宽很稀缺。这里的想法是将两个节点间的带宽作为距离的衡量标准。


节点距离:两个节点到达最近的共同祖先的距离总和。


例如,假设有数据中心d1机架r1中的节点n1。该节点可以表示为/d1/r1/n1。利用这种标记,这里给出四种距离描述。


Distance(/d1/r1/n1, /d1/r1/n1)=0(同一节点上的进程)

Distance(/d1/r1/n1, /d1/r1/n2)=2(同一机架上的不同节点)

Distance(/d1/r1/n1, /d1/r3/n2)=4(同一数据中心不同机架上的节点)

Distance(/d1/r1/n1, /d2/r4/n2)=6(不同数据中心的节点)


image.png


7.2 机架感知(副本节点选择)


  1. 低版本Hadoop副本节点选择


第一个副本在client所处的节点上。如果客户端在集群外,随机选一个。

第二个副本和第一个副本位于不相同机架的随机节点上。

第三个副本和第二个副本位于相同机架,节点随机。


image.png


  1. Hadoop2.7.2 副本节点选择


第一个副本在client所处的节点上。如果客户端在集群外,随机选一个。

第二个副本和第一个副本位于相同机架,随机节点。

第三个副本位于不同机架,随机节点。


image.png


8.HDFS 文件读取过程(非常重要)


image.png


  1. Client向NameNode发起RPC请求,来确定请求文件block所在的位置;


  1. NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode 都会返回含有该 block 副本的 DataNode 地址; 这些返回的 DN 地址,会按照集群拓扑结构得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排靠前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;


  1. Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是DataNode,那么将从本地直接获取数据(短路读取特性);


  1. 底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用父类 DataInputStream 的 read 方法,直到这个块上的数据读取完毕;


  1. 当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一批的 block 列表;


  1. 读取完一个 block 都会进行 checksum 验证,如果读取 DataNode 时出现错误,客户端会通知 NameNode,然后再从下一个拥有该 block 副本的DataNode 继续读。


  1. read 方法是并行的读取 block 信息,不是一块一块的读取;NameNode 只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;


  1. 最终读取来所有的 block 会合并成一个完整的最终文件。


从 HDFS 文件读写过程中,可以看出,HDFS 文件写入时是串行写入的,数据包先发送给节点A,然后节点A发送给B,B在给C;而HDFS文件读取是并行的, 客户端 Client 直接并行读取block所在的节点。


9. NameNode 工作机制以及元数据管理(重要)


image.png


9.1 namenode 与 datanode 启动


  • namenode工作机制


  1. 第一次启动namenode格式化后,创建fsimage和edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。


  1. 客户端对元数据进行增删改的请求。


  1. namenode记录操作日志,更新滚动日志。


  1. namenode在内存中对数据进行增删改查。


  • secondary namenode


  1. secondary namenode询问 namenode 是否需要 checkpoint。直接带回 namenode 是否检查结果。


  1. secondary namenode 请求执行 checkpoint。


  1. namenode 滚动正在写的edits日志。


  1. 将滚动前的编辑日志和镜像文件拷贝到 secondary namenode。


  1. secondary namenode 加载编辑日志和镜像文件到内存,并合并。


  1. 生成新的镜像文件 fsimage.chkpoint。


  1. 拷贝 fsimage.chkpoint 到 namenode。


  1. namenode将 fsimage.chkpoint 重新命名成fsimage。


9.2 FSImage与edits详解


所有的元数据信息都保存在了FsImage与Eidts文件当中,这两个文件就记录了所有的数据的元数据信息,元数据信息的保存目录配置在了 hdfs-site.xml 当中


<!--fsimage文件存储的路径-->
    <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:///opt/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas</value>
        </property>
        <!-- edits文件存储的路径 -->
    <property>
                <name>dfs.namenode.edits.dir</name>
                <value>file:///opt/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits</value>
      </property>


客户端对hdfs进行写文件时会首先被记录在edits文件中。


edits修改时元数据也会更新。


每次hdfs更新时edits先更新后客户端才会看到最新信息。


fsimage:是namenode中关于元数据的镜像,一般称为检查点。


一般开始时对namenode的操作都放在edits中,为什么不放在fsimage中呢?


因为fsimage是namenode的完整的镜像,内容很大,如果每次都加载到内存的话生成树状拓扑结构,这是非常耗内存和CPU。


fsimage内容包含了namenode管理下的所有datanode中文件及文件block及block所在的datanode的元数据信息。随着edits内容增大,就需要在一定时间点和fsimage合并。


9.3 FSimage文件当中的文件信息查看


  • 使用命令 hdfs oiv


cd  /opt/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas/current
hdfs oiv -i fsimage_0000000000000000112 -p XML -o hello.xml


9.4 edits当中的文件信息查看


  • 查看命令 hdfs oev


cd  /opt/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits
hdfs oev -i  edits_0000000000000000112-0000000000000000113 -o myedit.xml -p XML


9.5 secondarynameNode如何辅助管理FSImage与Edits文件


  1. secnonaryNN通知NameNode切换editlog。


  1. secondaryNN从NameNode中获得FSImage和editlog(通过http方式)。


  1. secondaryNN将FSImage载入内存,然后开始合并editlog,合并之后成为新的fsimage。


  1. secondaryNN将新的fsimage发回给NameNode。


  1. NameNode用新的fsimage替换旧的fsimage。


image.png


完成合并的是 secondarynamenode,会请求namenode停止使用edits,暂时将新写操作放入一个新的文件中(edits.new)。


secondarynamenode从namenode中通过http get获得edits,因为要和fsimage合并,所以也是通过http get 的方式把fsimage加载到内存,然后逐一执行具体对文件系统的操作,与fsimage合并,生成新的fsimage,然后把fsimage发送给namenode,通过http post的方式。


namenode从secondarynamenode获得了fsimage后会把原有的fsimage替换为新的fsimage,把edits.new变成edits。同时会更新fsimage。


hadoop进入安全模式时需要管理员使用dfsadmin的save namespace来创建新的检查点。


secondarynamenode在合并edits和fsimage时需要消耗的内存和namenode差不多,所以一般把namenode和secondarynamenode放在不同的机器上。


fsimage与edits的合并时机取决于两个参数,第一个参数是默认1小时fsimage与edits合并一次。


  • 第一个参数:时间达到一个小时fsimage与edits就会进行合并


dfs.namenode.checkpoint.period     3600


  • 第二个参数:hdfs操作达到1000000次也会进行合并


dfs.namenode.checkpoint.txns       1000000


  • 第三个参数:每隔多长时间检查一次hdfs的操作次数


dfs.namenode.checkpoint.check.period   60


9.6 namenode元数据信息多目录配置


为了保证元数据的安全性,我们一般都是先确定好我们的磁盘挂载目录,将元数据的磁盘做RAID1


namenode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性。


  • 具体配置方案:


hdfs-site.xml


<property>
         <name>dfs.namenode.name.dir</name>
         <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas</value>
    </property>


9.7 namenode故障恢复


在我们的secondaryNamenode对namenode当中的fsimage和edits进行合并的时候,每次都会先将namenode的fsimage与edits文件拷贝一份过来,所以fsimage与edits文件在secondarNamendoe当中也会保存有一份,如果namenode的fsimage与edits文件损坏,那么我们可以将secondaryNamenode当中的fsimage与edits拷贝过去给namenode继续使用,只不过有可能会丢失一部分数据。这里涉及到几个配置选项


  • namenode保存fsimage的配置路径


<!--  namenode元数据存储路径,实际工作当中一般使用SSD固态硬盘,并使用多个固态硬盘隔开,冗余元数据 -->
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas</value>
  </property>


  • namenode保存edits文件的配置路径


<property>
    <name>dfs.namenode.edits.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits</value>
</property>


  • secondaryNamenode保存fsimage文件的配置路径


<property>
    <name>dfs.namenode.checkpoint.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/snn/name</value>
</property>


  • secondaryNamenode保存edits文件的配置路径


<property>
    <name>dfs.namenode.checkpoint.edits.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits</value>
</property>


接下来我们来模拟namenode的故障恢复功能


  1. 杀死namenode进程: 使用jps查看namenode的进程号 , kill -9 直接杀死。


  1. 删除namenode的fsimage文件和edits文件。


根据上述配置, 找到namenode放置fsimage和edits路径. 直接全部rm -rf 删除。


  1. 拷贝secondaryNamenode的fsimage与edits文件到namenode的fsimage与edits文件夹下面去。


根据上述配置, 找到secondaryNamenode的fsimage和edits路径, 将内容 使用cp -r 全部复制到namenode对应的目录下即可。


  1. 重新启动namenode, 观察数据是否存在。
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
存储 分布式计算 资源调度
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(上)
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】
353 0
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(上)
|
存储 分布式计算 资源调度
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)(下)
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)(下)
163 0
|
分布式计算 资源调度 安全
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)(上)
吐血整理的Hadoop最全开发指南【完全分布式集群部署篇】(开发重点)
507 0
|
分布式计算 资源调度 Hadoop
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(下)
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(下)
136 0
吐血整理的Hadoop最全开发指南【Hadoop集群搭建篇】(下)
|
存储 分布式计算 安全
吐血整理的Hadoop最全开发指南【环境准备篇】(下)
吐血整理的Hadoop最全开发指南【环境准备篇】(下)
220 0
吐血整理的Hadoop最全开发指南【环境准备篇】(下)
|
SQL 分布式计算 安全
吐血整理的Hadoop最全开发指南【环境准备篇】(上)
吐血整理的Hadoop最全开发指南【环境准备篇】
179 0
吐血整理的Hadoop最全开发指南【环境准备篇】(上)
|
分布式计算 资源调度 并行计算
|
存储 分布式计算 资源调度

相关实验场景

更多