开发者社区> 问答> 正文

HDFS 的数据流中剖析文件写入的流程是什么?

HDFS 的数据流中剖析文件写入的流程是什么?

展开
收起
芯在这 2021-12-11 12:27:05 297 0
1 条回答
写回答
取消 提交回答
  • 1)客户端通过 Distributed FileSystem 模块向 NameNode 请求上传文件, NameNode 检查目标文件是否已存在,父目录是否存在。

    2)NameNode 返回是否可以上传。

    3)客户端请求第一个 Block 上传到哪几个 DataNode 服务器上。

    4)NameNode 返回3个 DataNode 节点,分别为 dn1、dn2、dn3。

    5)客户端通过 FSDataOutputStream 模块请求 dn1 上传数据,dn1 收到请求会继续调用 dn2,然后 dn2 调用 dn3,将这个通信管道建立完成。

    6)dn1、dn2、dn3 逐级应答客户端。

    7)客户端开始往 dn1 上传第一个 Block(先从磁盘读取数据放到一个本地内存缓存),以 Packet 为单位,dn1 收到一个 Packet 就会传给 dn2,dn2 传给 dn3;dn1 每传一个 Packet 会放入一个应答队列等待应答。

    8)当一个 Block 传输完成之后,客户端再次请求 NameNode 上传第二个 Block 的服务器。(重复执行3-7步)。

    2021-12-11 12:27:17
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
海量数据分布式存储——Apache HDFS之最新进展 立即下载
大批量处理excel文件到ODPS中方案 立即下载
零基础实现Flume收集网站日志数据到MaxCompute 立即下载