ECS服务器搭建hadoop伪分布式(二)

简介: ECS服务器搭建hadoop伪分布式(二)

配置并启动YARN


前提:


22.png


修改配置文件


修改/opt/module/hadoop-2.7.2/etc/hadoop/yarn-env.sh


export JAVA_HOME=/usr/java/jdk1.8.0_121


修改前


23...png


修改后


25.png


修改/opt/module/hadoop-2.7.2/etc/hadoop/yarn-site.xml


注意:第二value值是


26.png


<!-- Reducer获取数据的方式 -->
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>iZm5ea99qngm2v98asii1aZ</value>
</property>


27.png


修改/opt/module/hadoop-2.7.2/etc/hadoop/mapred-env.sh


修改JAVA_HOME和上面修改操作一致,不在重复


28.png


修改/opt/module/hadoop-2.7.2/etc/hadoop/mapred-site.xml(敲黑板)

1)将mapred-site.xml.template重新命名为mapred-site.xml


进入 /opt/module/hadoop-2.7.2/etc/hadoop


[root@iZm5ea99qngm2v98asii1aZ hadoop]# cd /opt/module/hadoop-2.7.2/etc/hadoop


对文件重命名


[root@iZm5ea99qngm2v98asii1aZ hadoop]# mv mapred-site.xml.template mapred-site.xml


2)修改配置文件mapred-site.xml


<!-- 指定MR运行在YARN上 -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>


修改后如图所示


29.png


启动集群


启动前必须保证NameNode和DataNode已经启动


返回到/opt/module/hadoop-2.7.2目录下


[root@iZm5ea99qngm2v98asii1aZ hadoop-2.7.2]# cd /opt/module/hadoop-2.7.2


启动ResourceManager


[root@iZm5ea99qngm2v98asii1aZ hadoop-2.7.2]# sbin/yarn-daemon.sh start resourcemanager


启动NodeManager


[root@iZm5ea99qngm2v98asii1aZ hadoop-2.7.2]# sbin/yarn-daemon.sh start nodemanager


30.png


开放8088端口


操作见最后常见问题


YARN的浏览器页面查看


http://你的IP:8088/cluster


31.png


配置历史服务器


修改/opt/module/hadoop-2.7.2/etc/hadoop/mapred-site.xml


<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>iZm5ea99qngm2v98asii1aZ:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>iZm5ea99qngm2v98asii1aZ:19888</value>
</property>


32.png


启动历史服务器


注意: 在  /opt/module/hadoop-2.7.2   下


[root@iZm5ea99qngm2v98asii1aZ hadoop-2.7.2]# sbin/mr-jobhistory-daemon.sh start historyserver


33.png


开放19888端口


见下面常见问题


查看JobHistory


http://你的IP:19888/jobhistory


34.png


编写启动脚本


cd /opt/module/hadoop-2.7.2
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
sbin/mr-jobhistory-daemon.sh start historyserver


常见问题


忘记ECS服务器密码


更多--》修改密码


35.png


开放端口(两处都要修改)


1 在阿里云界面修改安全组开放端口


36.png


2 在宝塔界面开放端口


37.png

相关实践学习
通义万相文本绘图与人像美化
本解决方案展示了如何利用自研的通义万相AIGC技术在Web服务中实现先进的图像生成。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情:&nbsp;https://www.aliyun.com/product/ecs
目录
相关文章
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
345 4
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
200 3
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
232 3
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
283 1
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
264 1
|
10月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
526 79
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
542 6
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
317 2
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
731 4
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
599 2