6、配置【yarn-site.xml】文件
vi hadoop/etc/hadoop/yarn-site.xml
添加以下编码:
<!-- resourcemanager所在机器 --> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <!-- 所需要的服务 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>
效果如下:
3、启动Hadoop
格式化【namenode】
hdfs namenode -format
dfs启动
start-dfs.sh
jps
启动yarn
start-yarn.sh
jps
关闭防火墙【systemctl stop firewalld】
关闭防火墙后,使用本地主机浏览器输入:【http://192.168.52.132:50070/】 【ip:50070】
4、编写测试文件:
cd /opt/data
vi hello
I HAVA A DREAM
通过【:wq】保存文件
上传测试文件到根目录:
hadoop fs -put hello /hello
cd /opt/hadoop/share/hadoop/mapreduce/ hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /hello /out
运行完成:
hadoop fs -cat /out/part-r-00000
由于每个单词都写了一个,故而确认分析正确,再次修改hello文件进行测试
由于根目录的hello文件已存在,换成hello1即可
out这里也加上一个【1】
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /hello1 /out1
机器说是24个,咱们自己数一数,发现的确是【24】个。
实验完毕。