hadoop完全分布式集群搭建(超详细)-大数据集群搭建

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: hadoop完全分布式集群搭建(超详细)-大数据集群搭建

hadoop完全分布式集群搭建

本次搭建完全分布式集群用到的环境有:

jdk1.8.0

hadoop-2.7.7

本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk

密码:553ubk


本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2


一.配置免密登陆


首先我们要实现三台虚拟机之间相互的ssh免密登陆

在master虚拟机上进行操作:


1. 创建ssh秘钥,输入如下命令,生成公私密钥,下方三个红框内都按回车键

ssh-keygen -t rsa

image.png

2.将公钥拷贝到本机实现免密登录,第一个红框位置输入yes,第二个红输位置输入自己虚拟机的登陆密码

ssh-copy-id master

image.png

跟上面的操作一样,我们在master中实现master对slave1,slave2的免密登录

ssh-copy-id slave1
ssh-copy-id slave2

同理,我们分别进入到slave1,slave2虚拟机中,进行以上同样的操作

ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

三台虚拟机一共要执行3*3=9次的免密登录操作

然后我们对master虚拟机上的/etc/hosts文件进行更改,设置IP映射

vi /etc/hosts

image.png

我们将三台虚拟机的ip地址,主机名如图所示进行添加,并键入:wq 保存并退出

同理,我们切换到slave1,slave2虚拟机中对/etc/hosts文件进行同样的修改,保存并退出


二.配置java环境


1.我们在master主机上进行java环境的配置

image.png

首先,先把虚拟机环境中的jdk压缩文件解压到/opt目录下

tar -zxvf  ~/ruanjian/jdk1.8.0_221.tar.gz  -C  /opt

进入/opt目录,将解压文件改名为java

cd /opt
mv jdk1.8.0_221 java

接下来修改环境变量

vi /etc/profile

进入文件按下GG进入配置文件最后一行,添加如下信息:

export JAVA_HOME=/opt/java  #你java路径是啥这里就填啥
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

wq保存配置信息

image.png然后我们生效配置信息

source /etc/profile

如图所示,正确地显示了java的版本号,就配置成功啦~

image.png然后我们通过命令将java环境分发给slave1,slave2虚拟机中

scp /etc/profile root@slave1:/etc/profile
scp /etc/profile root@slave2:/etc/profile

image.png

分别在slave1,slave2虚拟机中进行生效配置

ssh slave1
source /etc/profile
exit
ssh slave2
source /etc/profile
exit

image.png


三.hadoop的安装


1. 将/root/runajian下的hadoop-2.7.7.tar.gz压缩包解压到/opt目录下,并将解压文件改名为

hadoop

tar -zvxf /root/ruanjian/hadoop-2.7.7.tar.gz -C /opt
mv hadoop-2.7.7 hadoop

image.png

2.修改环境变量

vim /etc/profile

3.按键Shift+g键定位到最后一行,按键 i 切换到输入模式下,添加如下代码:

export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

image.png

4.按键ESC,按键:wq 保存并退出


5.生效刚刚的配置

source /etc/profile

6.同理将master的配置文件分发到slave1,slave2中

ssh slave1
source /etc/profile
exit
ssh slave2
source /etc/profile
exit

image.png


四.hadoop的配置


在/opt/hadoop/etc/hadoop里面,有六个需要配置的文件,分别为:

hadoop-env.sh

core-site.xml

yarn-site.xml

hdfs-site.xml

mapred-site.xml

slaves


1.首先在master虚拟机中,对hadoop-env.sh文件进行操作

vi /opt/hadoop/etc/hadoop/hadoop-env.sh

在配置文件中,输入25gg定位到25行,修改java环境为自己配置的java环境路径,键入:wq保存并退出

image.png

2.修改core-site.xml文件

vi /opt/hadoop/etc/hadoop/core-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
     <name>fs.defaultFS</name>
     <value>hdfs://master:9000</value>
 </property>
 <property>
     <name>hadoop.tmp.dir</name>
     <value>/opt/hadoop/tmp</value>
 </property>
</configuration>

image.png

3.修改hdfs-site.xml文件

vi /opt/hadoop/etc/hadoop/hdfs-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
      <name>dfs.namenode.http-address</name>
      <value>master:50070</value>
 </property>
 <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>master:50090</value>
 </property>
 <property>
      <name>dfs.replication</name>
      <value>3</value>
 </property>
 <property>
      <name>dfs.namenode.name.dir</name>
      <value>/opt/hadoop/tmp/dfs/name</value>
 </property>
 <property>
      <name>dfs.datanode.data.dir</name>
      <value>/opt/hadoop/tmp/dfs/data</value>
 </property>
</configuration>

image.png

4.修改yarn-site.xml文件

vi /opt/hadoop/etc/hadoop/yarn-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
    <name>yarn.resourcemanager.hostsname</name>
    <value>master</value>
 </property>
 <property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master:8088</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
 </property>
 <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
 </property>
 <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>106800</value>
 </property>
 <property>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/user/container/logs</value>
 </property>
</configuration>

image.png

5.在配置文件夹中,将模板文件mapred-site.xml.template复制一份为mapred-site.xml

cp /opt/haoop/etc/hadoop/mapred-site.xml.template  /opt/haoop/etc/hadoop/mapred-site.xml

修改mapred-site.xml文件

vi /opt/hadoop/etc/hadoop/mapred-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
     <name>mapreduce.framework.name</name>
     <value>yarn</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.address</name>
     <value>master:10020</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.webapp.address</name>
     <value>master:19888</value>
 </property>
</configuration>

image.png

6.修改slaves文件

vi /opt/hadoop/etc/hadoop/slaves

进入配置文件后按dd删除第一行内容,再键入i进入输入模式,输入slave1,sleve2

image.png7.将配置好的hadoop文件分发至slave1,slave2虚拟机中的/opt文件夹下

scp /opt/hadoop root@slave1:/opt/
scp /opt/hadoop root@slave2:/opt/

8.格式化namenode,在master虚拟机中进行

hdfs namenode -format

9.格式化后开启集群

start-all.sh

我们分别在master,slave1,slave2虚拟机中,通过jps命令查询集群是否开启成功

jps

master界面:

image.png

slave1界面:

image.png

slave2界面:

image.png

集群开启成功后,节点会如图显示:

Master: NameNode、ResourceManager、SecondaryNameNode

slave1: DataNode、NodeManager

slave2: DataNode、NodeManager


hadoop完全分布式集群搭建到此就完毕了


相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
3月前
|
存储 负载均衡 NoSQL
【赵渝强老师】Redis Cluster分布式集群
Redis Cluster是Redis的分布式存储解决方案,通过哈希槽(slot)实现数据分片,支持水平扩展,具备高可用性和负载均衡能力,适用于大规模数据场景。
280 2
|
6月前
|
负载均衡 算法 关系型数据库
大数据大厂之MySQL数据库课程设计:揭秘MySQL集群架构负载均衡核心算法:从理论到Java代码实战,让你的数据库性能飙升!
本文聚焦 MySQL 集群架构中的负载均衡算法,阐述其重要性。详细介绍轮询、加权轮询、最少连接、加权最少连接、随机、源地址哈希等常用算法,分析各自优缺点及适用场景。并提供 Java 语言代码实现示例,助力直观理解。文章结构清晰,语言通俗易懂,对理解和应用负载均衡算法具有实用价值和参考价值。
大数据大厂之MySQL数据库课程设计:揭秘MySQL集群架构负载均衡核心算法:从理论到Java代码实战,让你的数据库性能飙升!
|
8月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
阿里云PolarDB云原生数据库在TPC-C基准测试中以20.55亿tpmC的成绩刷新世界纪录,展现卓越性能与性价比。其轻量版满足国产化需求,兼具高性能与低成本,适用于多种场景,推动数据库技术革新与发展。
|
8月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
355 79
|
6月前
|
分布式计算 Hadoop Java
CentOS中构建高可用Hadoop 3集群
这个过程像是在一个未知的森林中探索。但当你抵达终点,看到那个熟悉的Hadoop管理界面时,所有的艰辛都会化为乌有。仔细观察,尽全力,这就是构建高可用Hadoop 3集群的挑战之旅。
227 21
|
7月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
|
7月前
|
负载均衡 算法 关系型数据库
大数据新视界--大数据大厂之MySQL数据库课程设计:MySQL集群架构负载均衡故障排除与解决方案
本文深入探讨 MySQL 集群架构负载均衡的常见故障及排除方法。涵盖请求分配不均、节点无法响应、负载均衡器故障等现象,介绍多种负载均衡算法及故障排除步骤,包括检查负载均衡器状态、调整算法、诊断修复节点故障等。还阐述了预防措施与确保系统稳定性的方法,如定期监控维护、备份恢复策略、团队协作与知识管理等。为确保 MySQL 数据库系统高可用性提供全面指导。
|
8月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
632 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
10月前
|
数据采集 人工智能 分布式计算
MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
阿里云推出的MaxFrame是链接大数据与AI的分布式Python计算框架,提供类似Pandas的操作接口和分布式处理能力。本文从部署、功能验证到实际场景全面评测MaxFrame,涵盖分布式Pandas操作、大语言模型数据预处理及企业级应用。结果显示,MaxFrame在处理大规模数据时性能显著提升,代码兼容性强,适合从数据清洗到训练数据生成的全链路场景...
474 5
MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
|
11月前
|
存储 SpringCloudAlibaba Java
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论。
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论

热门文章

最新文章