【赵渝强老师】Hadoop的伪分布部署模式

本文涉及的产品
RDS DuckDB + QuickBI 企业套餐,8核32GB + QuickBI 专业版
简介: 本文详解Hadoop伪分布式部署:涵盖目录结构、环境变量配置、核心配置文件(hdfs-site.xml等)修改、NameNode格式化、集群启动及Web UI访问,并通过WordCount实例验证HDFS与YARN功能。

b444.png

Hadoop的安装和部署是大数据生态圈体系中最麻烦的一个。Hadoop部署完成后,进一步地部署Spark和Flink就非常容易了。Hadoop的部署模式分为本地模式、伪分布模式和全分布模式。在学习完成了ZooKeeper的相关内容后,还将进一步地学习Hadoop HA的部署。这里重点讨论一下Hadoop的伪分布部署模式。视频讲解如下:


一、 Hadoop的目录结构


在部署Hadoop之前,需要对Hadoop的目录结构要有一定了解。先执行下面的语句将Hadoop的安装介质解压的/root/training目录。

tar -zxvf hadoop-3.1.2.tar.gz -C ~/training/
# 下面展示了Hadoop的目录结构:
[root@bigdata111 training]# tree -d -L 3 hadoop-3.1.2/
hadoop-3.1.2/              ─ ─ ── HADOOP_HOME目录
├── bin                    ─ ─ ── 最基本的管理和使用脚本所在的目录
├── etc                    ─ ─ ── 配置文件所在目录
│   └── hadoop
│       └── shellprofile.d
├── include                ─ ─ ── 对外提供的编程库头文件目录
├── lib                    ─ ─ ── 对外提供的编程动态库和静态库
│   └── native
│       └── examples
├── libexec                ─ ─ ── 各个服务Shell配置文件所在的目录
│   ├── shellprofile.d
│   └── tools
├── sbin                   ─ ─ ── Hadoop管理脚本所在目录
│   └── FederationStateStore
│       ├── MySQL
│       └── SQLServer
└── share
    ├── doc
    │   └── hadoop
    └── hadoop            ─ ─ ── ─ 各个模块编译后的Jar包所在目录
        ├── client
        ├── common
        ├── hdfs
        ├── mapreduce
        ├── tools
        └── yarn


为了方便操作Hadoop,需要设置HADOOP_HOME的环境变量,并把bin和sbin目录加入系统的PATH路径中。下面列举了具体的步骤。


(1)编辑文件~/.bash_profile文件。

vi /root/.bash_profile


(2)输入下面的环境变量信息,并保存退出。

HADOOP_HOME=/root/training/hadoop-3.1.2
export HADOOP_HOME
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export PATH


(3)生效环境变量。

source /root/.bash_profile


二、 【实战】部署Hadoop伪分布模式


Hadoop伪分布式模式是在单机上模拟一个分布式环境,它具备Hadoop的所有功能特性,即:具备HDFS和Yarn。由于在伪分布模式下依然只有一台主机,因此这种模式并不是真正的集群环境。这种模式更多的是在开发和测试环境中使用该模式,不建议在生产环境中使用Hadoop的伪分布模式。


(1)进入Hadoop配置文件所在的目录

cd /root/training/hadoop-3.1.2/etc/hadoop/


(2)修改文件hadoop-env.sh,设置JAVA_HOME

export JAVA_HOME=/root/training/jdk1.8.0_181


(3)在/root/.bash_profile文件中增加下面的环境变量,并执行source语句生效环境变量。

export HDFS_DATANODE_USER=root
export HDFS_DATANODE_SECURE_USER=root
export HDFS_NAMENODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root


(4)进入Hadoop配置文件所在目录。

cd /root/training/hadoop-3.1.2/etc/hadoop/


(5)修改hdfs-site.xml文件,增加下面的内容。

<!--数据块的冗余度,默认为3-->
<!--冗余度的配置原则一般与数据节点的个数一致,最大不超过3-->
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<!--禁用HDFS的权限功能-->
<!--开发环境设置为false-->
<!--生产环境设置为true-->
<property>
  <name>dfs.permissions</name>
  <value>false</value>
</property>


(6)修改core-site.xml文件,增加下面的内容。

<!--NameNode的地址-->
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://bigdata111:9000</value>
</property> 
<!--HDFS对应于操作系统目录-->
<!--该参数的默认值是Linux的tmp目录-->
<property>
  <name>hadoop.tmp.dir</name>
  <value>/root/training/hadoop-3.1.2/tmp</value>
</property>


(7)修改mapred-site.xml文件,增加下面的内容。

<!--配置MapReduce运行的框架-->
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property> 
<!--以下是配置Hadoop的环境变量-->
<property>
  <name>yarn.app.mapreduce.am.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property> 
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property> 
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>


(8)修改yarn-site.xml文件,增加下面的内容。

<!--配置的ResourceManager的地址-->
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>bigdata111</value>
</property>
<!--NodeManager采用shuffle洗牌的方式来执行任务-->
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>


(9)执行命令对NameNode进行格式化。

hdfs namenode -format
# 格式化成功后,将看到如下的日志信息:
Storage directory /root/training/hadoop-3.1.2/tmp/dfs/name has been successfully formatted.


(10)执行命令启动Hadoop集群,如下图所示:

start-all.sh

image.png

(11)执行jps命令查看后台的进程,如下图所示。

image.png

(12)通过9870端口访问HDFS的Web Consol,如下图所示。

image.png


(13)通过8081端口访问Yarn的Web Console,如下图所示。

image.png


(14)执行命令在HDFS上创建/input目录。

hdfs dfs -mkdir /input


(15)执行命令将/root/temp/data.txt文件上传到/input目录。

hdfs dfs -put /root/temp/data.txt /input


(16)执行MapReduce WordCount任务。

cd /root/training/hadoop-3.1.2/share/hadoop/mapreduce/
hadoop jar hadoop-mapreduce-examples-3.1.2.jar wordcount /input/data.txt /output/wc


(17)刷新Yarn的Web Console,观察任务的执行过程,如下图所示。

image.png

(18)任务执行完成后,在HDFS上观察输出的结果,如下图所示。

image.png

相关文章
|
5月前
|
存储 关系型数据库 数据库
【赵渝强老师】PostgreSQL锁的类型
PostgreSQL通过表级锁和行级锁实现并发控制,结合MVCC机制保障数据一致性。锁模式多样,粒度精细,可有效避免事务冲突,提升并发性能。
311 0
【赵渝强老师】PostgreSQL锁的类型
|
4月前
|
SQL 存储 分布式计算
【赵渝强老师】基于Hudi的大数据湖仓一体架构
Apache Hudi(Hadoop Upserts Delete and Incremental)是开源的流式数据湖平台,支持事务、高效upsert/delete、增量处理、多引擎SQL读写(Spark/Flink/Trino等),自动管理小文件与压缩,兼容云存储,助力构建湖仓一体架构。
656 3
|
9月前
|
分布式计算 Hadoop 测试技术
【赵渝强老师】Hadoop HDFS的快照
Hadoop HDFS快照是文件系统或目录在某一时刻的镜像,提供备份机制,适用于防止错误操作、备份数据、测试环境搭建及灾难恢复等场景。通过管理员命令可开启目录快照功能,并使用操作命令创建、删除、重命名快照。文章演示了具体操作步骤,包括创建两个快照并进行对比,展示了如何通过命令行和Web Console查看快照信息。
270 2
|
10月前
|
存储 分布式计算 大数据
【赵渝强老师】阿里云大数据存储计算服务:MaxCompute
阿里云MaxCompute是快速、全托管的TB/PB级数据仓库解决方案,提供海量数据存储与计算服务。支持多种计算模型,适用于大规模离线数据分析,具备高安全性、低成本、易用性强等特点,助力企业高效处理大数据。
470 0
|
5月前
|
存储 关系型数据库 数据库
【赵渝强老师】国产金仓数据库的体系架构
金仓数据库(KingbaseES)是基于PostgreSQL开发的国产关系型数据库,具有自主知识产权。其体系结构涵盖逻辑存储、物理存储、进程与内存管理,支持高可靠性与性能优化,广泛应用于关键信息基础设施领域。
925 1
|
6月前
|
数据采集 运维 DataWorks
【赵渝强老师】阿里云大数据集成开发平台DataWorks
DataWorks是阿里云一站式大数据开发治理平台,支持数据集成、开发、建模、分析、质量监控、服务化及迁移等全链路功能,兼容多种计算引擎,助力企业高效构建数据中台,实现数据资产化与价值挖掘。
486 6
|
6月前
|
NoSQL 测试技术 Redis
【赵渝强老师】Redis数据的迁移
Redis提供move、dump+restore和migrate三种方式实现数据迁移。move用于库内迁移,dump+restore跨实例传输,migrate则原子性地完成键的迁移与删除,支持多键批量操作,提升效率。
318 5
|
7月前
|
数据采集 缓存 大数据
【赵渝强老师】大数据日志采集引擎Flume
Apache Flume 是一个分布式、可靠的数据采集系统,支持从多种数据源收集日志信息,并传输至指定目的地。其核心架构由Source、Channel、Sink三组件构成,通过Event封装数据,保障高效与可靠传输。
417 1
|
6月前
|
SQL 数据库
【赵渝强老师】达梦数据库的事务隔离级别
达梦数据库支持多客户端并发访问,为避免数据不一致,提供三种事务隔离级别:读未提交、读已提交(默认)和串行化。通过SQL可查看隔离级别,其默认的读已提交级别可有效防止脏读问题。
333 0
|
7月前
|
存储 NoSQL 前端开发
【赵渝强老师】MongoDB的分布式存储架构
MongoDB分片通过将数据分布到多台服务器,实现海量数据的高效存储与读写。其架构包含路由、配置服务器和分片服务器,支持水平扩展,结合复制集保障高可用性,适用于大规模生产环境。
508 1