HDFS伪分布式环境搭建(上)

简介: HDFS伪分布式环境搭建

1 HDFS概述及设计目标

1.1 什么是HDFS:

  • Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS
  • 源自于Google的GFS论文
  • 论文发表于2003年,HDFS是GFS的克隆版

1.2 HDFS的设计目标:

1.png

  • 非常巨大的分布式文件系统
  • 运行在普通廉价的硬件上
  • 易扩展、为用户提供性能不错的文件存储服务

HDFS官方文档地址

2 HDFS架构

HDFS是主/从式的架构。一个HDFS集群会有一个NameNode(简称NN),也就是命名节点,该节点作为主服务器存在(master server).


  • NameNode用于管理文件系统的命名空间以及调节客户访问文件
  • 此外,还会有多个DataNode(简称DN),也就是数据节点,数据节点作为从节点存在(slave server)
  • 通常每一个集群中的DataNode,都会被NameNode所管理,DataNode用于存储数据。

HDFS公开了文件系统名称空间,允许用户将数据存储在文件中,就好比我们平时使用操作系统中的文件系统一样,用户无需关心底层是如何存储数据的

而在底层,一个文件会被分成一个或多个数据块,这些数据库块会被存储在一组数据节点中。在CDH中数据块的默认大小是128M,这个大小我们可以通过配置文件进行调节

在NameNode上我们可以执行文件系统的命名空间操作,如打开,关闭,重命名文件等。这也决定了数据块到数据节点的映射。


我们可以来看看HDFS的架构图


image.png

image.png

HDFS被设计为可以运行在普通的廉价机器上,而这些机器通常运行着一个Linux操作系统。HDFS是使用Java语言编写的,任何支持Java的机器都可以运行HDFS

使用高度可移植的Java语言编写的HDFS,意味着可以部署在广泛的机器上

一个典型的HDFS集群部署会有一个专门的机器只能运行NameNode,而其他集群中的机器各自运行一个DataNode实例。虽然一台机器上也可以运行多个节点,但是并不建议这么做,除非是学习环境。

总结

  • HDFS是主/从式的架构,一个HDFS集群会有一个NameNode以及多个DataNode
  • 一个文件会被拆分为多个数据块进行存储,默认数据块大小是128M
  • 即便一个数据块大小为130M,也会被拆分为2个Block,一个大小为128M,一个大小为2M
  • HDFS是使用Java编写的,使得其可以运行在安装了JDK的操作系统之上

NN

  • 负责客户端请求的响应
  • 负责元数据(文件的名称、副本系数、Block存放的DN)的管理

DN

  • 存储用户的文件对应的数据块(Block)
  • 会定期向NN发送心跳信息,汇报本身及其所有的block信息和健康状况

3 HDFS副本机制

在HDFS中,一个文件会被拆分为一个或多个数据块

默认情况下,每个数据块都会有三个副本

每个副本都会被存放在不同的机器上,而且每一个副本都有自己唯一的编号

  • 如下图

image.png

4 HDFS 副本存放策略

NameNode节点选择一个DataNode节点去存储block副本得过程就叫做副本存放,这个过程的策略其实就是在可靠性和读写带宽间得权衡。

《Hadoop权威指南》中的默认方式:

  • 第一个副本会随机选择,但是不会选择存储过满的节点。
  • 第二个副本放在和第一个副本不同且随机选择的机架上。
  • 第三个和第二个放在同一个机架上的不同节点上。
  • 剩余的副本就完全随机节点了

1.png

可以看出这个方案比较合理

  • 可靠性:block存储在两个机架上
  • 写带宽:写操作仅仅穿过一个网络交换机
  • 读操作:选择其中得一个机架去读
  • block分布在整个集群上

5 HDFS伪分布式环境搭建

5.1 官方安装文档地址

5.2 环境参数

  • Mac OS 10.14.4
  • JDK1.8
  • Hadoop 2.6.0-cdh5.7.0
  • ssh
  • rsync


下载Hadoop 2.6.0-cdh5.7.0的tar.gz包并解压:

image.png

MacOS安装环境

image.png

image.png

image.png

设置 JAVA_HOME

  • 添加java_home到.bash_profile文件中
export JAVA_HOME=$(/usr/libexec/java_home)
export PATH=$JAVA_HOME/bin:$PATH
export CLASS_PATH=$JAVA_HOME/lib 

image.png

  • 输入命令ssh localhost,可能遇到如下问题

image.png

  • 原因是没打开远程登录,进入系统设置->共享->远程登录打开就好

1.png

这时你再ssh localhost一下

image.png

目录
相关文章
|
Java 测试技术
HDFS伪分布式环境搭建(下)
HDFS伪分布式环境搭建
197 0
HDFS伪分布式环境搭建(下)
|
分布式计算 Hadoop Java
HDFS伪分布式环境搭建(中)
HDFS伪分布式环境搭建
146 0
HDFS伪分布式环境搭建(中)
|
分布式计算 Hadoop Java
Hadoop伪分布式部署(HDFS)
今天来讲Hadoop伪分布式部署(HDFS)
173 0
|
存储 分布式计算 Shell
HBase伪分布式安装(HDFS)+ZooKeeper安装+HBase数据操作+HBase架构体系
HBase1.2.2伪分布式安装(HDFS)+ZooKeeper-3.4.8安装配置+HBase表和数据操作+HBase的架构体系+单例安装,记录了在Ubuntu下对HBase1.2.2的实践操作,HBase的安装到数据库表的操作.包含内容1.HBase单例安装2.HBase伪分布式安装(基于Hadoop的HDFS)过程,3.HBase的shell编程,对HBase表的创建,
2593 0
|
8月前
|
XML 存储 分布式计算
【赵渝强老师】史上最详细:Hadoop HDFS的体系架构
HDFS(Hadoop分布式文件系统)由三个核心组件构成:NameNode、DataNode和SecondaryNameNode。NameNode负责管理文件系统的命名空间和客户端请求,维护元数据文件fsimage和edits;DataNode存储实际的数据块,默认大小为128MB;SecondaryNameNode定期合并edits日志到fsimage中,但不作为NameNode的热备份。通过这些组件的协同工作,HDFS实现了高效、可靠的大规模数据存储与管理。
904 70
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
494 6
|
SQL 分布式计算 监控
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
206 3
|
存储 分布式计算 资源调度
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
272 5
|
资源调度 数据可视化 大数据
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(二)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(二)
164 4
|
XML 分布式计算 资源调度
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
466 5

热门文章

最新文章