CentOS7安装Hadoop集群

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: http://www.jianshu.com/p/a69972d8a119安装Hadoop之前,请先安装好zookeeper集群并启动参考CentOS7安装Zookeeper集群我这里准备了三台服务器,一台主机名为hadoop1(做NameNo...

http://www.jianshu.com/p/a69972d8a119

安装Hadoop之前,请先安装好zookeeper集群并启动
参考

CentOS7安装Zookeeper集群

我这里准备了三台服务器,一台主机名为hadoop1(做NameNode),一台主机名为hadoop2(做DataNode),一台主机名为hadoop3(做DataNode)

192.168.1.186(hadoop1)
192.168.1.188(hadoop2)
192.168.1.18(hadoop3)

创建名为

hadoop

的用户,参考CentOS7建立用户

将所有hadoop服务器,配置好

hadoop

用户的免密码登录,让所有hadoop主机之间可以免密码互通
参考

CentOS7配置ssh无密码登录

设置好zookeeper、hadoop所有服务器的

hosts

文件的内容

192.168.1.232   zookeeper1
192.168.1.200   zookeeper2
192.168.1.233   zookeeper3

192.168.1.186   hadoop1
192.168.1.188   hadoop2
192.168.1.18    hadoop3

切换到

hadoop

用户,安装并配置hadoop,从http://hadoop.apache.org/releases.html找到一个你想要的版本,下载binary包(下载到hadoop1机上,配置完毕以后再复制到其他机器上),我这里下载的是hadoop-2.7.3.tar.gz

su hadoop

cd ~

wget http://119.90.25.43/mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

解压缩,并重命名为hadoop

tar -zxvf hadoop-2.7.3.tar.gz

mv hadoop-2.7.3 hadoop

编辑

hadoop-env.sh

文件,修改JAVA_HOME部分,不知道java按照位置的请参考CentOS7安装OpenJDK

vi ~/hadoop/etc/hadoop/hadoop-env.sh

[图片上传中...(image-6d2115-1513665884498-8)]

编辑

yarn-env.sh

文件,修改JAVA_HOME部分

vi ~/hadoop/etc/hadoop/yarn-env.sh

[图片上传中...(image-e6646e-1513665884498-7)]

编辑

slaves

文件,添加DataNode节点服务器的主机名,我这里添加了两个

vi ~/hadoop/etc/hadoop/slaves

[图片上传中...(image-f8ed7-1513665884498-6)]

建立临时文件夹

mkdir ~/hadoop/tmp

编辑

core-site.xml

文件

vi ~/hadoop/etc/hadoop/core-site.xml

添加如下内容

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop1:9000</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>zookeeper1:2181,zookeeper2:2181,zookeeper3:2181</value>
</property>
</configuration>

编辑

hdfs-site.xml

文件

vi ~/hadoop/etc/hadoop/hdfs-site.xml

添加如下内容

<configuration>
<property>
<name>dfs.http.address</name>
<value>hadoop1:50070</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop1:50090</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>

复制

mapred-site.xml.template

文件为

mapred-site.xml

cp ~/hadoop/etc/hadoop/mapred-site.xml.template ~/hadoop/etc/hadoop/mapred-site.xml

编辑其内容

vi ~/hadoop/etc/hadoop/mapred-site.xml

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop1:9001</value>
</property>
<property>
<name>mapred.map.tasks</name>
<value>20</value>
</property>
<property>
<name>mapred.reduce.tasks</name>
<value>4</value>
</property>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop1:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop1:19888</value>
</property>
</configuration>

修改

yarn-site.xml

文件

vi ~/hadoop/etc/hadoop/yarn-site.xml

将其内容修改为

<configuration>
<!-- Site specific YARN configuration properties -->
<property>
 <name>yarn.resourcemanager.address</name>
<value>hadoop1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
 <value>hadoop1:8030</value>
</property>
<property>
 <name>yarn.resourcemanager.webapp.address</name>
 <value>hadoop1:8088</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hadoop1:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hadoop1:8033</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>

将配置好的hadoop文件夹复制到其他节点机器

scp -r ~/hadoop hadoop@hadoop2:~/
scp -r ~/hadoop hadoop@hadoop3:~/

cd ~/hadoop

./bin/hdfs namenode -format

./sbin/start-all.sh

[图片上传中...(image-237e8c-1513665884498-5)]

在NameNode机器中,使用jps命令,看到下面内容就说明成功了

[图片上传中...(image-f8865c-1513665884498-4)]

在其他DataNode节点查看jps

[图片上传失败...(image-ce60ab-1513665884498)]

[图片上传中...(image-264079-1513665884498-2)]

可以打开浏览器,查看http://192.168.1.186:50070
一般我们是使用http://hadoop1:50070这个地址访问,因为hadoop1才是NameNode机器,当然,这需要你打开浏览器的那台机器配置hosts文件

[图片上传中...(image-41135c-1513665884498-1)]

[图片上传中...(image-315ed3-1513665884498-0)]

停止hadoop的命令

./sbin/stop-all.sh
相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
1天前
|
Linux
centos 6.5安装yum
centos 6.5安装yum
14 0
|
1天前
|
负载均衡 监控 Linux
CentOS6.5高可用集群LVS+Keepalived(DR模式)
CentOS6.5高可用集群LVS+Keepalived(DR模式)
|
1天前
|
运维 网络协议 Linux
【运维系列】Centos7安装并配置PXE服务
PXE是Intel开发的预启动执行环境,允许工作站通过网络从远程服务器启动操作系统。它依赖DHCP分配IP,DNS服务分配主机名,TFTP提供引导程序,HTTP/FTP/NFS提供安装源。要部署PXE服务器,需关闭selinux和防火墙,安装dhcpd、httpd、tftp、xinetd及相关服务,配置引导文件和Centos7安装源。最后,通过syslinux安装引导文件,并创建pxelinux.cfg/default配置文件来定义启动参数。
5 0
|
2天前
|
运维 网络协议 Linux
【运维系列】Centos7安装并配置postfix服务
安装CentOS7的Postfix和Dovecot,配置Postfix的`main.cf`文件,包括修改完全域名、允许所有IP、启用邮箱等。然后,配置Dovecot的多个配置文件以启用auth服务和调整相关设置。重启Postfix和Dovecot,设置开机自启,并关闭防火墙进行测试。最后,创建邮箱账户并在Windows邮箱客户端中添加账户设置。
9 0
|
2天前
|
Linux 网络安全
Centos6.5安装并配置NFS服务
该内容描述了在Linux系统中设置NFS服务的步骤。首先挂载yum源,然后安装NFS服务,并编辑配置文件。接着,重启rpcbind和NFS服务,可能需要重复此过程以解决初始可能出现的问题。此外,关闭防火墙策略,并再次重启服务。最终,根目录被共享,特定IP网段被允许访问。
8 0
|
3天前
|
存储 Linux 网络安全
centos7使用yum网络安装
这些是使用Yum进行网络安装的基本步骤。根据你的需求,你可以重复步骤3和4来安装其他软件包。请注意,执行Yum操作需要root或具有sudo权限的用户。
15 1
|
6天前
|
分布式计算 负载均衡 Hadoop
Hadoop集群节点添加
Hadoop集群节点添加
|
9天前
|
关系型数据库 MySQL Linux
centos7安装mysql-带网盘安装包
centos7安装mysql-带网盘安装包
56 2
|
11天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03+04】【Hadoop集群资源管理器yarn】(图片来源于网络)(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第5天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
39 9
|
12天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)
【4月更文挑战第4天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)
22 4