本节书摘来异步社区《Hadoop MapReduce实战手册》一书中的第2章,第2.1节,作者: 【美】Srinath Perera , Thilina Gunarathne 译者: 杨卓荦 责编: 杨海玲,更多章节内容可以访问云栖社区“异步社区”公众号查看。
2.1 简介
Hadoop MapReduce实战手册
Hadoop分布式文件系统(Hadoop Distributed File System,HDFS)被设计成适合运行在低廉的通用硬件上的面向块结构的分布式文件系统。HDFS支持海量数据存储,并提供高吞吐量的数据访问。HDFS通过跨多个节点的冗余方式存储文件数据,以确保容错性和高聚合带宽。
HDFS是Hadoop MapReduce计算默认使用的分布式文件系统。Hadoop在处理存储在HDFS上的数据时支持数据本地化感知。然而,HDFS也可以用作一个通用的分布式文件系统。HDFS架构主要由一个用于处理文件系统元数据的中央NameNode以及很多个用于存储真实数据块的DataNode组成。HDFS数据块通常是粗粒度的,适合存储大数据产品。
1.5节和第1章中的其他各节说明了如何部署HDFS,并对HDFS的基本操作给出了一个概述。本章将学习一组精心挑选的高级HDFS操作,在使用Hadoop MapReduce进行大规模数据处理时,这些操作将十分有用,同时,也适用于使用HDFS作为一个独立的分布式文件系统用于非MapReduce场景。