hadoop完全分布式集群搭建(超详细)-大数据集群搭建

简介: hadoop完全分布式集群搭建(超详细)-大数据集群搭建

hadoop完全分布式集群搭建

本次搭建完全分布式集群用到的环境有:

jdk1.8.0

hadoop-2.7.7

本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk

密码:553ubk


本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2


一.配置免密登陆


首先我们要实现三台虚拟机之间相互的ssh免密登陆

在master虚拟机上进行操作:


1. 创建ssh秘钥,输入如下命令,生成公私密钥,下方三个红框内都按回车键

ssh-keygen -t rsa

image.png

2.将公钥拷贝到本机实现免密登录,第一个红框位置输入yes,第二个红输位置输入自己虚拟机的登陆密码

ssh-copy-id master

image.png

跟上面的操作一样,我们在master中实现master对slave1,slave2的免密登录

ssh-copy-id slave1
ssh-copy-id slave2

同理,我们分别进入到slave1,slave2虚拟机中,进行以上同样的操作

ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

三台虚拟机一共要执行3*3=9次的免密登录操作

然后我们对master虚拟机上的/etc/hosts文件进行更改,设置IP映射

vi /etc/hosts

image.png

我们将三台虚拟机的ip地址,主机名如图所示进行添加,并键入:wq 保存并退出

同理,我们切换到slave1,slave2虚拟机中对/etc/hosts文件进行同样的修改,保存并退出


二.配置java环境


1.我们在master主机上进行java环境的配置

image.png

首先,先把虚拟机环境中的jdk压缩文件解压到/opt目录下

tar -zxvf  ~/ruanjian/jdk1.8.0_221.tar.gz  -C  /opt

进入/opt目录,将解压文件改名为java

cd /opt
mv jdk1.8.0_221 java

接下来修改环境变量

vi /etc/profile

进入文件按下GG进入配置文件最后一行,添加如下信息:

export JAVA_HOME=/opt/java  #你java路径是啥这里就填啥
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

wq保存配置信息

image.png然后我们生效配置信息

source /etc/profile

如图所示,正确地显示了java的版本号,就配置成功啦~

image.png然后我们通过命令将java环境分发给slave1,slave2虚拟机中

scp /etc/profile root@slave1:/etc/profile
scp /etc/profile root@slave2:/etc/profile

image.png

分别在slave1,slave2虚拟机中进行生效配置

ssh slave1
source /etc/profile
exit
ssh slave2
source /etc/profile
exit

image.png


三.hadoop的安装


1. 将/root/runajian下的hadoop-2.7.7.tar.gz压缩包解压到/opt目录下,并将解压文件改名为

hadoop

tar -zvxf /root/ruanjian/hadoop-2.7.7.tar.gz -C /opt
mv hadoop-2.7.7 hadoop

image.png

2.修改环境变量

vim /etc/profile

3.按键Shift+g键定位到最后一行,按键 i 切换到输入模式下,添加如下代码:

export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

image.png

4.按键ESC,按键:wq 保存并退出


5.生效刚刚的配置

source /etc/profile

6.同理将master的配置文件分发到slave1,slave2中

ssh slave1
source /etc/profile
exit
ssh slave2
source /etc/profile
exit

image.png


四.hadoop的配置


在/opt/hadoop/etc/hadoop里面,有六个需要配置的文件,分别为:

hadoop-env.sh

core-site.xml

yarn-site.xml

hdfs-site.xml

mapred-site.xml

slaves


1.首先在master虚拟机中,对hadoop-env.sh文件进行操作

vi /opt/hadoop/etc/hadoop/hadoop-env.sh

在配置文件中,输入25gg定位到25行,修改java环境为自己配置的java环境路径,键入:wq保存并退出

image.png

2.修改core-site.xml文件

vi /opt/hadoop/etc/hadoop/core-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
     <name>fs.defaultFS</name>
     <value>hdfs://master:9000</value>
 </property>
 <property>
     <name>hadoop.tmp.dir</name>
     <value>/opt/hadoop/tmp</value>
 </property>
</configuration>

image.png

3.修改hdfs-site.xml文件

vi /opt/hadoop/etc/hadoop/hdfs-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
      <name>dfs.namenode.http-address</name>
      <value>master:50070</value>
 </property>
 <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>master:50090</value>
 </property>
 <property>
      <name>dfs.replication</name>
      <value>3</value>
 </property>
 <property>
      <name>dfs.namenode.name.dir</name>
      <value>/opt/hadoop/tmp/dfs/name</value>
 </property>
 <property>
      <name>dfs.datanode.data.dir</name>
      <value>/opt/hadoop/tmp/dfs/data</value>
 </property>
</configuration>

image.png

4.修改yarn-site.xml文件

vi /opt/hadoop/etc/hadoop/yarn-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
    <name>yarn.resourcemanager.hostsname</name>
    <value>master</value>
 </property>
 <property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master:8088</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
 </property>
 <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
 </property>
 <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>106800</value>
 </property>
 <property>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/user/container/logs</value>
 </property>
</configuration>

image.png

5.在配置文件夹中,将模板文件mapred-site.xml.template复制一份为mapred-site.xml

cp /opt/haoop/etc/hadoop/mapred-site.xml.template  /opt/haoop/etc/hadoop/mapred-site.xml

修改mapred-site.xml文件

vi /opt/hadoop/etc/hadoop/mapred-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
     <name>mapreduce.framework.name</name>
     <value>yarn</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.address</name>
     <value>master:10020</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.webapp.address</name>
     <value>master:19888</value>
 </property>
</configuration>

image.png

6.修改slaves文件

vi /opt/hadoop/etc/hadoop/slaves

进入配置文件后按dd删除第一行内容,再键入i进入输入模式,输入slave1,sleve2

image.png7.将配置好的hadoop文件分发至slave1,slave2虚拟机中的/opt文件夹下

scp /opt/hadoop root@slave1:/opt/
scp /opt/hadoop root@slave2:/opt/

8.格式化namenode,在master虚拟机中进行

hdfs namenode -format

9.格式化后开启集群

start-all.sh

我们分别在master,slave1,slave2虚拟机中,通过jps命令查询集群是否开启成功

jps

master界面:

image.png

slave1界面:

image.png

slave2界面:

image.png

集群开启成功后,节点会如图显示:

Master: NameNode、ResourceManager、SecondaryNameNode

slave1: DataNode、NodeManager

slave2: DataNode、NodeManager


hadoop完全分布式集群搭建到此就完毕了


相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
15天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
37 2
|
3月前
|
分布式计算 Ubuntu Hadoop
百度搜索:蓝易云【Ubuntu搭建全分布式Hadoop】
请注意,以上只是概述,并不包含详细的步骤和指令。搭建全分布式Hadoop是一个复杂的过程,需要对Hadoop的架构和配置有深入的理解,并熟悉Linux系统管理。建议在搭建全分布式Hadoop之前,先学习相关知识并查阅官方文档和教程,以确保正确搭建和配置Hadoop集群。
27 0
|
15天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
3天前
|
存储 分布式计算 Hadoop
基于Hadoop分布式数据库HBase1.0部署及使用
基于Hadoop分布式数据库HBase1.0部署及使用
|
17天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
59 1
|
1月前
|
消息中间件 SQL 分布式计算
大数据Hadoop生态圈体系视频课程
熟悉大数据概念,明确大数据职位都有哪些;熟悉Hadoop生态系统都有哪些组件;学习Hadoop生态环境架构,了解分布式集群优势;动手操作Hbase的例子,成功部署伪分布式集群;动手Hadoop安装和配置部署;动手实操Hive例子实现;动手实现GPS项目的操作;动手实现Kafka消息队列例子等
20 1
大数据Hadoop生态圈体系视频课程
|
1月前
|
存储 分布式计算 大数据
现代化数据库技术——面向大数据的分布式存储系统
传统的关系型数据库在面对大规模数据处理时遇到了诸多挑战,而面向大数据的分布式存储系统应运而生。本文将深入探讨现代化数据库技术中的分布式存储系统,包括其优势、工作原理以及在大数据领域的应用。
|
1月前
|
分布式计算 资源调度 Hadoop
Hadoop分布式
基于Java的分布式计算平台,旨在处理海量数据。【2月更文挑战第19天】
25 2
|
3月前
|
存储 大数据
大数据集群规划的一点建议
大数据集群规划的一点建议
|
4月前
|
分布式计算 资源调度 搜索推荐
《PySpark大数据分析实战》-02.了解Hadoop
大家好!今天为大家分享的是《PySpark大数据分析实战》第1章第2节的内容:了解Hadoop。
48 0
《PySpark大数据分析实战》-02.了解Hadoop