环境篇之 hadoop 集群的测试|学习笔记

简介: 快速学习环境篇之 hadoop 集群的测试

开发者学堂课程【大数据 Flink 实时旅游平台环境篇 2020版:环境篇之 hadoop 集群的测试】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/643/detail/10695


环境篇之 hadoop 集群的测试

Hadoop 集群测试

1.分发到 hadoop02\hadoop03

可以根据 [root@hadoop01-hadoop-2.7.6]#scp-r../hadoop-2.7.6/hadoop02:/user/local/ 来做

之前应该是有过分发,但是查找后发现未做分发,原因是需要保证配置一样。

[root@hadoop02~]#vi/etc/profile 点击回车发现是有分发的,目前为止分发就结束了。

结束之后需要测试一下分发过来之后能不能看到效果。

[root@hadoop01-hadoop-2.7.6]#scp-r../hadoop-2.7.6/hadoop02:/user/local/

[root@hadoop01-hadoop-2.7.6]#scp-r../hadoop-2.7.6/hadoop03:/user/local/

输入[root@hadoop02~]#which hadoop 按回车键,可以看出是没有问题的。

检查这个的原因是一会启动的时候需要有这样的脚本。

2.hdfs

Hadoop 常用的模块有两个,其中一个是 hdfs,另一个是 MapReduce。

hdfs 是一个文件系统,在使用尤其是第一次使用的时候都要做一些格式化,也就是把系统里的数据清理干净。

保证文件系统是干净的之后,这样数据文件就不会因为这个问题影响到整个系统的使用。

格式化一般选择的是 hdfs namenode-format。因为 namenode 主管数据的存取。

[root@hadoop01-hadoop-2.7.6]#hdfs namenode-format  启动,就开始格式化了 。

格式化完之后就可以看到一些源数据:

[root@hadoop01-hadoop-2.7.6]#ll/home/hadoopdate/dfs/name/current/ 点击回车:

total 0

drwxr-xr-x.2 root root 112 Mar 17 17:39 current【root@hadoop01 hadoop-2.7.6]# ll/home/hadoopdata/dfs/name/current/  

total 16

-rw-r--r--. l root root 321 Mar 17 17:39 fsimage_0000000000000000000

-rw-r--r--. I root root 62 Mar 17 17:39 fsimage_0000000000000000000.md5  

-rw-r--r--. l root root 2 Mar 17 17:39 seen_txid  

-rw-r--r--. l root root 207 Mar 17 17:39 VERSION  

[root@hadoop01 hadoop-2.7.6]#  

[root@hadoop01 hadoop-2.7.6]#  

[root@hadoop01 hadoop-2.7.6]#

Hadoop02/03 是没有的,所以就不看了。所以最终选择 hadoop01 上 hdfs 格式化。

格式化完成以后就可以启动了,启动分为很多种方式:

3.启动停止

启动方式:

全启动或停止:  

start-all.sh

stop-all.sh

模块启动:

start-dfs.sh

stop-dfs.sh  

start-yarn.sh  

stop-yarn.sh

单个启动:

hadoop-daemon.sh start namenode/datanode/secondarynamenode hadoop-daemon.sh stop namenode/datanode/secondarynamenode hadoop-daemons.sh start namenode/datanode  

hadoop-daemons.sh stop namenode/datanode

yarn-daemon.sh start resourcemanager/nodemanager  

yarn-daemon.sh stop resourcemanager/nodemanager  

yarn-daemons.sh start nodemanager  

yarn-daemons.sh stop nodemanager

启动历史服务

mr-jobhistory-daemon.sh start historyserver

我们直接按照 start-all.sh 启动:

在第二个页面里面输入[root@hadoop01-hadoop-2.7.6]# start-all.sh,点击回车。注意,这个要在配置环境变量之后才能随便用。

根据电脑的一些性质,启动的时间是不一定的。

启动之后,需要检测一下进程是否按照我们的规划启动,输入[root@hadoop01-hadoop-2.7.6]#jps,回车,可以看出 NameNode、ResourceManager、NodeManager、DataNode 是没有问题的。

Jobhistoryserver 是没有单独启动的,如果单独启动的话要用[root@hadoop01-hadoop-2.7.6]# mr-jobhistory-daemon.sh start jobhistoryserver,点击回车,显示报错。

先看第三个页面,输入 [root@hadoop02~]#jps,回车,有 SecondaryNameNode、DataNode、NodeManager。

第四个页面,输入[root@hadoop03~]#jps,回车,有 DataNode、NodeManager。

回到第二个页面,不能加 job,要写成[root@hadoop01-hadoop-2.7.6]# mr-jobhistory-daemon.sh start historyserver 回车,这样可以看到JobhistoryServer。

4.进程检测

我们用的是 jps 进行检测。

5.上传下载执行测试

文件系统最重要的功能是上传文件和下载文件,我们需要测试这两个过程能否成功进行。

进入第二个页面,输入[root@hadoop01-hadoop-2.7.6]#vi/home/words回车,来创建一个文件。

Hello qianfeng

Hello flink

Wuhan jiayou hello wuhan wuhan hroe

先简单的写一些这样的单词。

回到第二个页面,输入[root@hadoop01-hadoop-2.7.6]#hdfs dfs-put/home/words/ 这是本地磁盘的文件系统的目录。

输入[root@hadoop01-hadoop-2.7.6]#hdfs dfs-ls/,点击回车

Found 2 items

Drwxrwx---. root supergroup   0 2020-03-17 17:42/tmp  

-rw-r--r-- 3 root supergroup   63 2020-03-17 17:44 /words  

【root@hadoop01 hadoop-2.7.6]#

我们可以看到已经有了 words 这个配置文件,

[root@hadoop01-hadoop-2.7.6]#hdfs dfs-get/words/home/word,回车。

[root@hadoop01 hadoop-2.7.6]# ll/home/

total 431240

-rw-r--r--.1 root root 216745683 Mar 17 17:26 hadoop-2.7.6.tar.gz

Drwxr-xr-x. 3 root root 17 Mar 17 17:39 hadoopdata  

-rw-r--r--. 1 root root 189784266 Mar 17 01:28 jdk-8u152-linux-x64.tar.gz

-rw-r--r--. 1 root root 63 Mar 17 17:45 word  

-rw-r--r--. 1 root root 63 Mar 17 17:44 words  

-rw-r--r--. 1 root root 35042811 Mar 17 17:08 zookeeper-3.4.10.tar.gz

[root@hadoop01 hadoop-2.7.6]#

这样就出现了 word 两个都是63个 mar。

下载下来之后改一下名字,改成 word。上传下载都可以改名。

整个来说文件系统是没有问题的,因为能进行正常的上传下载。

6.yarn测试

接下来要测试一下 yarn 的终极功能。也就是我们的作业能否正常跑,yarn 能否正常去启动它的资源。

yarn jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar wordcount /words/ out/00

首先 yarn 执行 jar 包,jar 包的位置在/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.

然后我们去运行,回车。

跑起来之后,我们需要等着他的结果,在等待的过程中,可以先去进行页面访问的测试。

7.页面访问测试

在浏览器中输入 hadoop01:50070/ 回车,是 NameNode  

image.png

information。

Active 表示一个结果。

image.png

Live nodes 是三个节点。

Had

oop01/02/03 是都有的,都是正在服务的。后面是一些内存,容量,版本的情况。

再打开一个页面,输入 hadoop01:8088/ 回车,是 All Applications。

这个是 yarn 的页面。

image.png

可以看到各组数据也在执行中。

再打开一个页面,输入 hadoop01:19888/ 回车。也是有一个历史的进度。

点击第一个页面,它给我们提供了查看,就是网页。

也可以直接通过输入 [root@hadoop01-hadoop-2.7.6]#hdfs dfs-cat/out/00/*,回车

flink 1  

hello3

hroe 1

jiayou 1

qianfeng 1  

wuhan 3

统计的结果

输入[root@hadoop01-hadoop-2.7.6]#cat/home/words 回车去查找文件的内容。可以看出是没有问题的。

所以 hadoop 的整个集群是测试成功的。

在这里给大家强调一下,如果在配置过程中出现了任何的问题,我们要想到去看日志:

在 hadoop01 里输入 [root@hadoop01-hadoop-2.7.6]#ll./logs/ 回车就可以检查了。

Hadoop02 也是一样,输入[root@hadoop02~]#cd/usr/local/Hadoop-2.7.6/

输入[root@hadoop02-hadoop-2.7.6]#ll./logs/ 回车,也去看一些对应的信息。

Hadoop03 也是如此。

相关文章
|
28天前
|
测试技术
自动化测试项目学习笔记(五):Pytest结合allure生成测试报告以及重构项目
本文介绍了如何使用Pytest和Allure生成自动化测试报告。通过安装allure-pytest和配置环境,可以生成包含用例描述、步骤、等级等详细信息的美观报告。文章还提供了代码示例和运行指南,以及重构项目时的注意事项。
134 1
自动化测试项目学习笔记(五):Pytest结合allure生成测试报告以及重构项目
|
28天前
|
测试技术 Python
自动化测试项目学习笔记(四):Pytest介绍和使用
本文是关于自动化测试框架Pytest的介绍和使用。Pytest是一个功能丰富的Python测试工具,支持参数化、多种测试类型,并拥有众多第三方插件。文章讲解了Pytest的编写规则、命令行参数、执行测试、参数化处理以及如何使用fixture实现测试用例间的调用。此外,还提供了pytest.ini配置文件示例。
20 2
|
28天前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
50 1
|
1月前
|
SQL 分布式计算 NoSQL
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
38 4
|
28天前
|
测试技术 Python
自动化测试项目学习笔记(二):学习各种setup、tearDown、断言方法
本文主要介绍了自动化测试中setup、teardown、断言方法的使用,以及unittest框架中setUp、tearDown、setUpClass和tearDownClass的区别和应用。
52 0
自动化测试项目学习笔记(二):学习各种setup、tearDown、断言方法
|
1月前
|
存储 大数据 Apache
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
21 0
|
1月前
|
存储 SQL 分布式计算
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
32 0
|
1月前
|
存储 SQL 分布式计算
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(一)
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(一)
37 0
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
133 6
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
62 2
下一篇
无影云桌面