Hadoop
hadoop 中常问的有三块,第一:存储,问到存储,就把 HDFS 相关的知识点拿出
来;第二:计算框架(MapReduce);第三:资源调度框架(yarn)
- 请说下 HDFS 读写流程 这个问题虽然见过无数次,面试官问过无数次,但是就是有人不能完整的说下来,所以 请务必记住。并且很多问题都是从 HDFS 读写流程中引申出来的
hdfs 写文件过程
1.客户端发起文件上传请求,通过RPC与NN(NameNode)建立通讯,NN根据检查文件,父目录是否已存在做出反馈
2.客户端请求第一个block该传输到哪些DN(DataNode)上;
3.NN根据配置文件中机架感知原理及备份数量进行文件分配,返回可用的DN地址,如:A、B、C
4.客户端请求3台DN中的一台A上传数据(本质是RPC调用,建立pipeline),A收到后传给B,B传给C,将整个管道建立起来,后逐级返回客户端。
5.客户端开始往A传第一个block(先进行本地缓存,以packet为单位,每个packet64k),A收到后给B,B传给C,A每传一个都会等待应答。
6.数据被切分成一个个packet在pipeline依次传输,收到后反方向逐个发送ack正确应答命令,最终有第一个DN节点A将pipelineack发送给client;
7,关闭写入流;
8.当一个block完成后,client进行第二个block传输;
HDFS 读流程
详细步骤: 1)客户端通过Distributed FileSystem向namenode请求下载文件,namenode通过查询元数据,
找到文件块所在的datanode地址。
2)挑选一台datanode(就近原则,然后随机)服务器,请求读取数据。
3)datanode开始传输数据给客户端(从磁盘里面读取数据输入流,以packet为单位来做校验,大
小为64k)。
4)客户端以packet为单位接收,先在本地缓存,然后写入目标文件。
另一版本: