HDFS教程(01)- 初识HDFS

简介: HDFS教程(01)- 初识HDFS

01 引言

由于接下来需要用到hdfs的技术,从本篇开始,有关hdfs的学习笔记都会记录到《HDFS专栏》专栏。

接下来,开始我们愉快的Hdfs学习之旅!

02 HDFS概述

2.1 HDFS定义

HDFS(Hadoop Distributed File System):它是一个文件系统,用于存储文件,通过目录树来定位;其次,它是分布式的,由很多服务联合起来实现其功能,集群中的服务器有各自的角色

HDFS使用场景: 适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,并不适合用来做网盘应用。

2.2 HDFS优缺点

HDFS优点

  • 高容错性: 数据自动保存多个副本,它通过增加副本的形式,提高容错性,当某一个副本丢失以后,它可以自动恢复;
  • 适合处理大数据:它的数据规模能够处理数据规模达到GBTB,甚至PB级别的数据;文件规模能够处理百万规模以上的文件数量,数量相当之大;
  • 可构建在廉价机器上:通过多副本机制,提高可靠性。

HDFS缺点

  • 不适合低延迟数据访问:比如毫秒级的存储数据,是做不到的;
  • 无法高效的对大量小文件进行存储:存储大量小文件的话,他会占用NameNode大量的内存来存储文件目录块信息。这样是不可取的,因为NameNode的内存总是有限的;小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标;
  • 不支持并发写入,文件随机修改:一个文件只能有一个写,不允许多个线程同时写。仅支持数据append(追加),不支持文件的随机修改。

03 HDFS架构

贴上hdfs官方的架构图

根据架构图,可以看出HDFS主要由如下几个部分组成:

  • NameNode
  • DataNode
  • Client
  • Secondary NameNode
  • Block

下面讲解下。

3.1 NameNode管理者

NameNode: 就是Master,他是一个主管,管理者。

它主要的作用:

  1. 管理HDFS的名称空间;
  2. 配置副本策略;
  3. 管理数据块(Block)映射信息;
  4. 处理客户端读写请求。

NameNode主要维护两个文件:

  • FsImageFsImage是一个“镜像文件”。它保存了最新的元数据检查点,包含了整个HDFS文件系统的所有目录和文件的信息。对于文件来说包括了数据块描述信息、修改时间、访问时间等;对于目录来说包括修改时间、访问权限控制信息(目录所属用户,所在组)等;
  • EditLogEditLog主要是在NameNode已经启动情况下对HDFS进行的各种更新操作进行记录,HDFS客户端执行所有的写操作都会被记录到editlog中。

3.2 DataNode执行者

DataNode: 就是Slave,当NameNode下达命令,DataNode执行实际的操作。

它的主要作用:

  1. 存储实际的数据块,所以DataNode节点需要较大的磁盘
  2. 执行数据块的读/写操作;
  3. 定期向NameNode发送心跳,如果NameNode长时间没有接受到DataNode发送的心跳,NameNode就会认为该DataNode失效,将其剔除集群(心跳参数dfs.heartbeat.interval=3,默认3秒发送一次心跳);
  4. DataNode会定时上报自己负责的数据块列表。

3.3 Client客户端

Client:就是客户端。

它的主要作用:

  1. 文件切分,文件上传HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;
  2. NameNode交互,获取文件的位置信息;
  3. Datanode交互,读取或者写入数据;
  4. Client提供一些命令来管理HDFS,比如NameNode格式化;
  5. Client可以通过一些命令来访问HDFS,比如对HDFS增删改查操作。

3.4 Secondary NameNode辅助者

Secondary NameNode:并非NameNode的热备,当NameNode宕掉的时候,它并不能马上替换NameNode并提供服务。

它的作用:

  1. 镜像备份:备份fsimage(fsimage是元数据发送检查点时写入文件);
  2. 日志与镜像的定期合并:将Namenodeedits日志和fsimage合并,防止如果Namenode节点故障,Namenode下次启动的时候,会把fsimage加载到内存中,应用edit log,edit log往往很大,导致操作往往很耗时;

3.5 Block块

blockHDFS中文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本是128M,在Hadoop1.x版本中是64M

默认大小设置为128M的原因

  1. 如果寻址时间为10ms,即查找到目标的bolck的时间为10ms
  2. 寻址时间为传输时间的1%时,则为最佳状态。因此,传输时间=寻址时间/0.01=10ms/0.01=1000ms=1s
  3. 而目前磁盘的传输速度普遍为100MB/s
  4. 因此block的大小为=1s*100MB/s=100M≈128M。

如何设置块大小:

  • 块设置太小:会增加寻址时间,呈现一直在找块的开始位置;
  • 块设置的太大:从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间,导致程序在处理这块数据时,会非常慢;
  • HDFS块的大小设置,主要取决于磁盘传输速度。

举例:

  • 如果数据的大小比HDFS块大小还要小的话,那么块大小将等于数据的大小
  • 如果文件大小是129MB,那么HDFS将创建2个block,一个block的大小是默认值,即128MB,另外一个block就只有1MB,而不是128MB

3.6 机架感知

在大型Hadoop集群,为了在读写文件的时候改善网络传输,Namenode会选择给同一个机架或者最近的机架上的Datanode发送读写请求。NameNode通过维护每个DataNode的机架id来获取机架信息。

HDFS机架感知就是基于机架信息选择Datanode的过程

机架感知的作用

  • 提升数据的高可用和可靠性。
  • 改善集群性能。
  • 改善网络带宽。

04 HDFS读写流程

下面来讲解HDFS的操作流程已加深对HDFS的架构理解。

4.1 写流程

比如文件上传流程:

  1. 客户端发起写文件请求 hadoop fs -put
  2. NameNode检查上传文件的命名空间是否存在(就是检测文件目录结构是否存在),创建者是否有权限进行操作,然后返回状态给客户端你可以上传数据;
  3. 客户端按照分块配置大小将文件分块,然后请求NameNode我要上传blk1,副本数是三个,这个文件一共分割了5块。
  4. NameNode检测自己管理下的DateNodes是否满足要求,然后返回给客户端三台DateNode节点信息(存储策略是机架模式);
  5. Client端根据返回的DataNode信息选择一个离自己最近的一个DataNode节点,创建pipeLine(数据传输管道),DataNode1->DataNode2创建pipeLine,DataNode2->DataNode3创建pipeLine;DataNode3通过这一串管道传递给client数据传输管道已经建立完毕;
  6. client端创建Stream流(以packet为单位传输数据64kb)上传数据;
  7. DataNode1接受并保持源源不断的packet,然后把packet源源不断的传递给DataNode2DataNode2也做相应的操作。
  8. DataNode也通过pipeLine发送ACK认证数据是否接收完毕。
  9. 第一个数据块上传完毕后client端开始上传第二个数据块。

写流程Java示例:

Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(conf);
// Check if the file already exists
Path path = new Path("/path/to/file.ext");
if (fileSystem.exists(path)) {
    System.out.println("File " + dest + " already exists");
    return;
}
// Create a new file and write data to it.
FSDataOutputStream out = fileSystem.create(path);
InputStream in = new BufferedInputStream(new FileInputStream(new File(source)));
byte[] b = new byte[1024];
int numBytes = 0;
while ((numBytes = in.read(b)) > 0) {
    out.write(b, 0, numBytes);
}
// Close all the file descripters
in.close();
out.close();
fileSystem.close();

4.2 读流程

比如文件的获取流程

  1. client 发起 hadoop fs -get请求;
  2. NameNode检查该文件的信息,文件的分块信息和每个分块所对应哪个DateNode,以及备份信息和备份信息所在哪个DataNode
  3. NameNode把这些信息返回给client端。(返回原则也是机架原则,根据网络拓扑将距离最近的DataNode排在前边返回);
  4. 根据NameNode的信息,请求各个文件块对应的DataNode节点获取文件数据;
  5. 合并下载过来的数据块,形成一个完整的文件。

读流程Java示例:

Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(conf);
Path path = new Path("/path/to/file.ext");
if (!fileSystem.exists(path)) {
    System.out.println("File does not exists");
    return;
}
FSDataInputStream in = fileSystem.open(path);
int numBytes = 0;
while ((numBytes = in.read(b))> 0) {
    System.out.prinln((char)numBytes));// code to manipulate the data which is read
}
in.close();
out.close();
fileSystem.close();

05 文末

本文是通过搜集资料并根据自己的理解整理的,如有疑问的童鞋欢迎留言,谢谢大家的阅读,本文完!


参考文献:

目录
相关文章
|
5月前
|
Java 大数据 API
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
148 0
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
|
存储 JSON 分布式计算
HDFS教程(05)- HDFS磁盘均衡
HDFS教程(05)- HDFS磁盘均衡
238 0
|
存储 分布式计算 Hadoop
HDFS教程(04)- HDFS联邦
HDFS教程(04)- HDFS联邦
192 0
|
存储 机器学习/深度学习 分布式计算
HDFS教程(03)- HDFS高可用与容错
HDFS教程(03)- HDFS高可用与容错
336 0
|
分布式计算 Hadoop
HDFS教程(02)- HDFS命令汇总
HDFS教程(02)- HDFS命令汇总
157 0
|
Web App开发 存储 分布式计算
[python作业AI毕业设计博客]大数据Hadoop工具python教程1-HDFS Hadoop分布式文件系统
Hadoop分布式文件系统(HDFS:Hadoop Distributed File System)是基于Java的分布式文件系统分布式,可扩展和可移植的文件系统,旨在跨越大型商用服务器集群。 HDFS的设计基于谷歌文件系统GFS(https://ai.google/research/pubs/pub51)。
|
分布式计算 大数据 Hadoop
[雪峰磁针石博客]大数据Hadoop工具python教程2-python访问HDFS
https://pypi.org/project/hdfs3 已经不维护PyArrow https://pypi.org/project/hdfs/https://pypi.org/project/snakebite/ python2中比较好,对python3支持不好。
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
154 6
|
1月前
|
SQL 分布式计算 监控
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
62 3
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
42 4
下一篇
无影云桌面