三台阿里云服务器搭建完全分布式Hadoop集群

本文涉及的产品
云防火墙,500元 1000GB
简介: 三台阿里云服务器搭建完全分布式Hadoop集群

三台阿里云服务器搭建完全分布式Hadoop集群

1.集群规划

角色分配:
QQ图片20211120123030.png

2.准备环境

阿里云环境:CentOS Hadoop-3.2.2 jdk1.8
Xshell Xftp

打开Xshell

ssh 477.xx.xx

(公网ip)
输入用户名root和密码

点击Xshell上方小图标
image.png

双击返回上一级
image.png

进入usr
image.png

将下载好的hadoop和jdk拖拽过来
等待传输完成
image.png

3.开始搭建

1.SSH无秘钥访问

连接至master

ssh 477.xx.xx,xxx

(外网ip)

修改主机名:

vim /etc/hostsname

image.png

将默认值删掉改为自己角色主机名

关闭防火墙:

systemctl stop firewalld.service

//关闭防火墙

systemctl firewalld.service

//关闭防火墙开机自启动

配置主机映射:

vim /etc/hosts

477.xx.xx.xxx slave1 (外网ip)
477.xx.xx.xxx slave2 (外网ip)
172.xxx.xx.xx master (内网ip)

生成秘钥:

ssh-keygen

//根据提示连敲三下回车

发送秘钥:

ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

重启:

reboot

连接至slave1

ssh 477.xx.xx,xxx

(外网ip)

修改主机名:

vim /etc/hostsname

image.png

将默认值删掉改为自己角色主机名

关闭防火墙:

systemctl stop firewalld.service

//关闭防火墙

systemctl firewalld.service

//关闭防火墙开机自启动

配置主机映射:

vim /etc/hosts

477.xx.xx.xxx master(外网ip)
477.xx.xx.xxx slave2 (外网ip)
172.xxx.xx.xx slave1(内网ip)

生成秘钥:

ssh-keygen

//根据提示连敲三下回车

发送秘钥:

ssh-copy-id master
ssh-copy-id slave1
 ssh-copy-id slave2

重启:

reboot

连接至slave2

ssh 477.xx.xx,xxx

(外网ip)
修改主机名:

vim /etc/hostsname

image.png

将默认值删掉改为自己角色主机名

关闭防火墙:

systemctl stop firewalld.service

//关闭防火墙

systemctl firewalld.service

//关闭防火墙开机自启动

配置主机映射:

vim /etc/hosts

477.xx.xx.xxx master(外网ip)
477.xx.xx.xxx slave1 (外网ip)
172.xxx.xx.xx slave2(内网ip)

生成秘钥:

ssh-keygen

//根据提示连敲三下回车

发送秘钥:

ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

重启:

reboot

检验:登录三台服务器互相用ssh访问查看是否需要密码

2.配置jdk

连接至master

ssh 477.xx.xx,xxx

(外网ip)

解压jdk和hadoop:

cd /usr
tar -zxvf 文件名

image.png
image.png

更改文件名

mv 旧文件名 新文件名

image.png
image.png

配置java环境变量

vim /etc/profile

export JAVA_HOME=/usr/jdk
export PATH=$JAVA_HOME/bin:$PATH
image.png

source /etc/profile

//使文件生效

java -version

//查看版本
image.png

登录slave1

ssh slave1

解压jdk和hadoop:

cd /usr
tar -zxvf 文件名

更改文件名
mv 旧文件名 新文件名

vim /etc/profile

export JAVA_HOME=/usr/jdk
export PATH=$JAVA_HOME/bin:$PATH

source /etc/profile

//使文件生效

java -version

//查看版本

退出slave1

exit

登录slave2

ssh slave2

解压jdk和hadoop:

cd /usr
tar -zxvf 文件名

更改文件名

mv 旧文件名 新文件名
vim /etc/profile

export JAVA_HOME=/usr/jdk
export PATH=$JAVA_HOME/bin:$PATH

source /etc/profile

//使文件生效

java -version

//查看版本

退出slave2

exit

3.配置hadoop
登录master

ssh 477.xx.xx.xxx

(外网ip)

cd /usr/hadoop/etc/hadoop
vim hadoop-env.sh

export JAVA_HOME=/usr/jdk

vim mapred-env.sh

export JAVA_HOME=/usr/jdk

vim yarn-env.sh

export JAVA_HOME=/usr/jdk

vim core-site.xml

image.png

vim hdfs-site.xml

image.png

vim mapred-site.xml

image.png

vim yarn-site.xml

image.png

vim workers

image.png

cd /usr/hadoop/sbin
 vim start-dfs.sh

image.png

vim stop-dfs.sh

image.png

vim start-yarn.sh

image.png

vim stop-yarn.sh

image.png

将修改的配置同步到slave1和slave2

scp -r /usr/hadoop/etc/hadoop root@slave1:/usr/hadoop/etc/
 scp -r /usr/hadoop/etc/hadoop root@slave2:/usr/hadoop/etc/
 scp -r /usr/hadoop/sbin root@slave1:/usr/hadoop/
 scp -r /usr/hadoop/sbin root@slave1:/usr/hadoop/

master开放端口9000和50070
image.png

格式化Namenode

/usr/hadoop/bin/hdfs namenode -format

启动进程

/usr/hadoop/sbin/start-dfs.sh
ssh root@slave2 /usr/hadoop/sbin/start-yarn.sh

前往master的公网ip加端口号50070查看
477.xx.xx.xxx:50070
image.png

相关实践学习
2分钟自动化部署人生模拟器
本场景将带你借助云效流水线Flow实现人生模拟器小游戏的自动化部署
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
162 6
|
1月前
|
SQL 机器学习/深度学习 分布式计算
大数据-81 Spark 安装配置环境 集群环境配置 超详细 三台云服务器
大数据-81 Spark 安装配置环境 集群环境配置 超详细 三台云服务器
62 1
|
24天前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
1月前
|
存储 边缘计算 城市大脑
阿里云入选Gartner®分布式混合基础设施魔力象限
Gartner正式发布了《分布式混合基础设施魔力象限》(Magic Quadrant™ for Distributed Hybrid Infrastructure),阿里云在入选的中国厂商中于执行能力(纵轴)和愿景完整性(横轴)上均处在最高、最远的位置。
|
1月前
|
消息中间件 分布式计算 监控
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
70 6
|
1月前
|
SQL 分布式计算 NoSQL
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
41 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
33 3
|
1月前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
607 1
|
1月前
|
存储 边缘计算 城市大脑
阿里云入选Gartner®分布式混合基础设施魔力象限
Gartner正式发布了《分布式混合基础设施魔力象限》(Magic Quadrant™ for Distributed Hybrid Infrastructure),全球共9家厂商入围,阿里云成功入选,位居利基者(Niche Players)象限。
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
66 2
下一篇
无影云桌面