Hadoop04【集群环境搭建】

简介: Hadoop04【集群环境搭建】


 因为伪分布式环境搭建没啥意义,所以我们直接来搭建hadoop的集群环境,

一、安装文件

1.下载文件

链接:https://pan.baidu.com/s/1OXiW1i3gD6fVvrFX7NXsJg 提取码:nyzk

下载内容包括源文件和编译的文件。

2.上传解压缩

 文件上传在/root/apps/目录下.解压缩并重命名

image.png

进入hadoop目录中

image.png

目录结构介绍

image.png

二、修改配置文件

 hadoop配置文件存放在etc/hadoop文件夹下,

image.png

1.hadoop-env.sh

 设置具体的jdk路径,路径需要写死,因为在集群环境中通过$JDK_HOME获取不到系统环境变量中的信息。

image.png

2.core-site.xml

 指定NameNode的地址和hadoop运行时产生文件的存储目录。

    <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
    <property>
          <name>fs.defaultFS</name>
          <value>hdfs://hadoop-node01:9000</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储目录 -->
    <property>
            <name>hadoop.tmp.dir</name>
            <value>/root/apps/hadoop/hdfsdata</value>
    </property>

3.hdfs-site.xml

 指定副本的存储个数,及secondaryNameNode的存储地址

  <!-- 指定HDFS副本的数量 -->
  <property>
        <name>dfs.replication</name>
        <value>1</value>
  </property>
  <!--指定secondaryNameNode的地址 -->
  <property>
        <name>dfs.secondary.http.address</name>
        <value>hadoop-node01:50090</value>
  </property>

4.mapred-site.xml

 首先需要将文件名称修改了。原文件名称为mapred-site.xml.template。指定MapReduce的资源调度方式为yarn。


image.png

 

        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>

5.yarn-site.xml

 指定ResourceManager(yarn的老大)的地址和reduce获取数据的方式shuffle。

 

        <!-- 指定YARN的老大(ResourceManager)的地址 -->
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop-node01</value>
        </property>
        <!-- reducer获取数据的方式 -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>

6.slaves

 指定DataNode的地址。

image.png

三、内容分发

 在hadoop-node01节点配置完成后,我们可以一次性将hadoop文件夹分发给其他几个节点。

 scp -r hadoop hadoop-node02:/root/apps/
 scp -r hadoop hadoop-node03:/root/apps/
 scp -r hadoop hadoop-node04:/root/apps/

image.png

四、环境变量配置

 配置hadoop的环境变量,便于操作。

export HADOOP_HOME=/root/apps/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

image.png

其他几个节点分发或者配置下

source /etc/profile

五、HDFS格式化

 只需要在NameNode的节点上面格式化一次就可以了

hadoop namenode -format

image.png

注意只需要格式一次,在nameNode上格式化。

image.png

六、启动hdfs

 在hadoop-node01上执行

start-dfs.sh

image.png

其他节点jps查看启动情况

image.png

测试:http://192.168.88.61:50070

image.png

image.png

启动成功~


相关文章
|
5月前
|
分布式计算 运维 Hadoop
42 Hadoop的HA集群的安装部署
42 Hadoop的HA集群的安装部署
65 0
|
8天前
|
分布式计算 负载均衡 Hadoop
Hadoop集群节点添加
Hadoop集群节点添加
|
12天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03+04】【Hadoop集群资源管理器yarn】(图片来源于网络)(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第5天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
41 9
|
13天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)
【4月更文挑战第4天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)
23 4
|
16天前
|
存储 分布式计算 Hadoop
【Hadoop】Hadoop的三种集群模式
【4月更文挑战第9天】【Hadoop】Hadoop的三种集群模式
|
17天前
|
分布式计算 Hadoop Java
centos 部署Hadoop-3.0-高性能集群(一)安装
centos 部署Hadoop-3.0-高性能集群(一)安装
17 0
|
4月前
|
SQL 分布式计算 Hadoop
Hadoop学习笔记(HDP)-Part.08 部署Ambari集群
01 关于HDP 02 核心组件原理 03 资源规划 04 基础环境配置 05 Yum源配置 06 安装OracleJDK 07 安装MySQL 08 部署Ambari集群 09 安装OpenLDAP 10 创建集群 11 安装Kerberos 12 安装HDFS 13 安装Ranger 14 安装YARN+MR 15 安装HIVE 16 安装HBase 17 安装Spark2 18 安装Flink 19 安装Kafka 20 安装Flume
85 0
Hadoop学习笔记(HDP)-Part.08 部署Ambari集群
|
1月前
|
分布式计算 资源调度 Hadoop
Hadoop集群基本测试
Hadoop集群基本测试
26 0
|
3月前
|
分布式计算 Hadoop Java
linux上面hadoop配置集群
linux上面hadoop配置集群
46 0
|
4月前
|
分布式计算 Hadoop Windows
解决Windows环境下hadoop集群的运行
解决Windows环境下hadoop集群的运行
35 0