Hadoop中HDFS和MapReduce节点基本简介

简介:

    Hadoop提供存储文件和分析文件的机制。

    HDFS负责文件的存储,MapReduce负责文件的分析过程。

HDFS主要组件由NameNodeDataNode组成

HDFS文件切分成块(默认大小64M),以块为单位,每个块有多个副本存储在不同的机器上,副本数可在文件生成时指定(默认3

NameNode是主节点,存储文件的元数据如文件名,文件目录结构,文件属性(生成时间,副本数,文件权限),以及每个文件的块列表以及块所在的DataNode等等。它是一个中心服务器,单一节,负责管理文件系统的名字空间(namespace)以及客户端对文件的访问,它维护着每个文件系统树和整棵树内所有的文件和目录,这些信息已两个文件形式永久保存在本地磁盘上:命名控件镜像文件(Fsimage)和编辑日志(Edit log)。文件操作,NameNode负责文件元数据的操作,DataNode负责处理文件内容的读写请求,跟文件内容相关的数据流不经过NameNode,只会询问它跟那个DataNode联系,否则NameNode会成为系统的瓶颈

DataNode在本地文件系统存储文件块数据,以及块数据的校验和。可以创建、删除、移动或重命名文件,当文件创建、写入和关闭之后不能修改文件内容。一个数据块在DataNode以文件存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。DataNode启动后向NameNode注册,通过后,周期性(1小时)向NameNode上报所有的块信息。心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode 的心跳,则认为该节点不可用。

DataNode磁盘挂了,都会尽快的通知NameNode。如果该机器挂了,由于datanode3秒钟向namenode发送心跳,如果10分钟datanode没有向namenode发送心跳,则namenode认为该datanode已经deadnamenode将取出该datanode上对应的block,对其进行复制。

Map的数据流

   原理:利用一个输入key/value pair集合来产生一个输出的key/value pair集合

   Map函数:接受一个输入的key/value pair值,然后产生一个中间key/value pair值的集合。

   Reduce函数:接受一个由Map函数产生的中间key值和其相关的一个value值集合,然后分析合并这些value

   在MapReduce中作业(Job)是客户端需要执行的工作单元,它包含了输入数据、MapReduce程序和配置信息。Hadoop将作业分为若干个小任务(task)来执行,其中每个小任务又分为Map任务和Reduce任务。

两类节点控制着作业执行过程:一个JobTracker和多个TaskTrackerJobTracker主要就是调度TaskTracker来运行小任务,协调所有运行在系统上的作业。TaskTracker在运行小任务的时候,将进度报告给JobTracker,这样一旦发生错误,就由JobTracker来负责调度另一个TaskTrackerTaskTracker每隔3秒向JobTracker发送心跳来询问是否有任务可做,如有则让你分发任务给它,此时就是slave主动向master咨询。

Hadoop对于用户输入的作业中的输入数据,由MapReduce将其划分为等长的小数据块。

Hadoop仅仅在存储有输入数据的节点上运行Map任务,而且Map任务将其输出写入到本地磁盘中。当Map开始产生输出时候,数据首先写到内存的缓冲区中,进行预排序。这个默认的内存循环缓冲区大小为100MB,直到缓冲区达到80%的时候才将其数据spill到磁盘中。在输出中间结果的时候,可以使用Combiner来对其进行一个简单压缩。当缓冲区达到阀值的时候,都会产生一个spill文件,一个Map可能产生多个spill,Map任务完成之前,都会将其产生的spill文件进行归并排序,然后删除临时的spill文件,通知TaskTracker自己的Map执行完毕.

只要有一个Map任务完成,则Reduce就开始拷贝其输出,一个Reduce有多个拷贝线程。Reduce会对其Map的输出进行归并排序处理。Reduce的输出结果最终会存储在HDFS中,当有多个reduce任务,每个map任务都会为每一个reduce任务建立一个分区




本文转自 zhao_xiao_long 51CTO博客,原文链接:http://blog.51cto.com/computerdragon/1258573

相关文章
|
3月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
203 6
|
3月前
|
存储 分布式计算 Hadoop
Hadoop-33 HBase 初识简介 项目简介 整体架构 HMaster HRegionServer Region
Hadoop-33 HBase 初识简介 项目简介 整体架构 HMaster HRegionServer Region
70 2
|
3月前
|
分布式计算 Hadoop Unix
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
58 1
|
3月前
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
58 0
|
3月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
121 0
|
3月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
57 0
|
3月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
91 2
|
15天前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
51 4
|
2月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
135 2
|
2月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
97 1

相关实验场景

更多