linux--远古版本大学教材(centos7.6!!)记录2配置hadoop3.3.5

简介: linux老教材记录

下载和安装Java Development Kit (JDK) 8

  • 大多数环境使用jdk8较为合适除非有特殊需求
#下载JDK 8
wget https://download.java.net/java/GA/jdk8/8u301-b09/jdk-8u301-linux-x64.tar.gz
#解压JDK安装包
tar -zxvf jdk-8u301-linux-x64.tar.gz -C /usr/local
#环境变量
vi /etc/profile
       export JAVA_HOME=/usr/local/jdk1.8.0_301
       export PATH=$PATH:$JAVA_HOME/bin

#保存并关闭文件
source /etc/profile

下载和安装Hadoop 3.3.5

wget https://downloads.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz
tar -zxvf hadoop-3.3.5.tar.gz -C /usr/local/
#配置Hadoop环境变量
vi /etc/profile
       export HADOOP_HOME=/usr/local/hadoop-3.3.5
       export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
  • 配置Hadoop
cd /usr/local/hadoop-3.3.5/etc/hadoop/
vi hadoop-env.sh
     export JAVA_HOME=/usr/local/jdk1.8.0_301
vi core-site.xml
     <configuration>
       <property>
         <name>fs.defaultFS</name>
         <value>hdfs://localhost:9000</value>
       </property>
     </configuration>
vi hdfs-site.xml
     <configuration>
       <property>
         <name>dfs.replication</name>
         <value>1</value>
       </property>
     </configuration>
vi mapred-site.xml
     <configuration>
       <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
       </property>
     </configuration>

vi yarn-site.xml
     <configuration>
       <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
       </property>
       <property>
         <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
       </property>
       <property>
         <name>yarn.resourcemanager.hostname</name>
         <value>localhost</value>
       </property>
     </configuration>
  • 格式化Hadoop文件系统:

     - 使用以下命令格式
     - HDFS:hdfs namenode -format
    
  • 启动Hadoop:

    • 使用以下命令启动Hadoop服务:start-all.sh
    • 使用以下命令验证Hadoop是否正常运行:
      • 查看HDFS状态:hdfs dfsadmin -report
      • 查看YARN状态:yarn node -list

hadoop集群(environment:五台centos7.9)

# 配置hosts文件: 
sudo vim /etc/hosts
     192.168.2.110   hadoop001
     192.168.2.111   hadoop002
     192.168.2.112   hadoop003
     192.168.2.113   hadoop004
     192.168.2.114   hadoop005
# 创建用户名
     sudo useradd bigdata
     sudo passwd bigdata
#解压JDK到/opt/module目录下: 
     tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/
     cd /opt/module/

配置JDK环境变量:

sudo vim /etc/profile

 #JAVA_HOME
 export JAVA_HOME=/opt/module/jdk1.8.0_144
 export PATH=$PATH:$JAVA_HOME/bin

source /etc/profile
java -version

下载Hadoop并解压到/opt目录下:

 wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.5/hadoop-2.7.5.tar.gz
 tar -zxvf hadoop-2.7.5.tar.gz -C /opt/
 ```

配置Hadoop环境变量:

sudo vim /etc/profile

 export HADOOP_HOME=/opt/hadoop-2.7.5
 export PATH=$PATH:$HADOOP_HOME/bin
 ```

source /etc/profile

配置hadoop-env.sh文件:

sudo vim /opt/hadoop-2.7.5/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/opt/jdk1.8.0_45

后面的全部重复


- 在第一台机器上配置好Hadoop,并确保它正常运行。
- 将Hadoop配置文件复制到其他四台机器上。您可以使用SSH或其他文件传输工具来复制文件。
```shell
   # 假设第一台机器的IP地址是10.0.0.1,其他四台机器的IP地址分别是10.0.0.2、10.0.0.3、10.0.0.4、10.0.0.5
   # 假设Hadoop配置文件的路径是/opt/hadoop/etc/hadoop

   # 将第一台机器的Hadoop配置文件复制到其他四台机器上
   scp -r /opt/hadoop/etc/hadoop/* 10.0.0.2:/opt/hadoop/etc/hadoop/
   scp -r /opt/hadoop/etc/hadoop/* 10.0.0.3:/opt/hadoop/etc/hadoop/
   scp -r /opt/hadoop/etc/hadoop/* 10.0.0.4:/opt/hadoop/etc/hadoop/
   scp -r /opt/hadoop/etc/hadoop/* 10.0.0.5:/opt/hadoop/etc/hadoop/
目录
相关文章
|
13天前
|
安全 Linux 虚拟化
|
17天前
|
关系型数据库 MySQL Linux
在 CentOS 7 中通过编译源码方式安装 MySQL 数据库的详细步骤,包括准备工作、下载源码、编译安装、配置 MySQL 服务、登录设置等。
本文介绍了在 CentOS 7 中通过编译源码方式安装 MySQL 数据库的详细步骤,包括准备工作、下载源码、编译安装、配置 MySQL 服务、登录设置等。同时,文章还对比了编译源码安装与使用 RPM 包安装的优缺点,帮助读者根据需求选择最合适的方法。通过具体案例,展示了编译源码安装的灵活性和定制性。
59 2
|
23天前
|
Kubernetes Linux 测试技术
|
1月前
|
Java jenkins 持续交付
Centos7下docker的jenkins下载并配置jdk与maven
通过上述步骤,您将成功在CentOS 7上的Docker容器中部署了Jenkins,并配置好了JDK与Maven,为持续集成和自动化构建打下了坚实基础。
97 1
|
1月前
|
存储 监控 Linux
在 CentOS 7 中如何对新硬盘进行分区、格式化、挂载及配置最佳实践
本文详细介绍了在 CentOS 7 中如何对新硬盘进行分区、格式化、挂载及配置最佳实践,包括使用 `fdisk` 创建分区、`mkfs` 格式化分区、创建挂载点、编辑 `/etc/fstab` 实现永久挂载等步骤,旨在有效管理服务器磁盘空间,提高系统稳定性和可维护性。
54 1
|
1月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
69 4
|
1月前
|
SQL 存储 分布式计算
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
41 3
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-34 HBase 安装部署 单节点配置 hbase-env hbase-site 超详细图文 附带配置文件
Hadoop-34 HBase 安装部署 单节点配置 hbase-env hbase-site 超详细图文 附带配置文件
70 2
|
1月前
|
SQL 存储 数据管理
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
56 2
|
1月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
47 1