配置 HDFS-启动 HDFS 测试|学习笔记

简介: 快速学习配置 HDFS-启动 HDFS 测试

开发者学堂课程【快速掌握 Hadoop 集成 Kerberos 安全技术配置 HDFS-启动 HDFS 测试】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/708/detail/12566


配置 HDFS-启动 HDFS 测试


启动 HDFS 测试

1、启动 Namenode

认证 namenode 对应的 Kerberos 的账户

(1)向 Kerberos 认证 namenode 对应的账户:nn/cdh.itcast.cn@ITCAST.CN

得到认证才可以对 namenode 进行操作

首先切换到 hdfs 账户:su-hdfs

输入: kinit -kt jetc/security/keytabs/nn.service.keytab nn/cdh0.itcast.cn(认证)

会发现认证直接成功了,不需要验证密码,输入 klist 查看认证结果,正常如下:

[hdfseedhe ~1$ klist

Ticket cache: FILE:/tmp/krb5cc_505

Default principal:nn/cdhitcast.cn@ITCAST.CN

Valid starting Expires Service principal

09/26/19 11:59:08 09/27/19 11:59:08 krbtgt/ITCASTCNITCAST.CN

renew until 09/26/19 11:59:08

(2)格式化 namenode

执行 hadoop namenode -format,会发现 format 成功了

接下来启动 namenode 和 secondarynamenode

执行:hadoop-daemon.sh start namenade

为了确保安全,到 logs/hdfs 看一下路径和日志,看有没有报错。

接下来执行 hadoop-daemon.sh start secondarynamenode,启动后 jps 看一下,会发现 jps 没有启动成功,再来看一下 secondarynamenode 的日志,这里看到:

image.png

再去 cd /etc/security/keytabs/里看一下,因为没有创建 sn 对应的账户,再回到日常用户 klist 看一下

当前还是 admin 权限,再 kadmin 来执行 admin 账户的密码,输入之后在添加一下 addprinc -rankey sn/cdh0.itcast.cn@ITCAST.CN,创建完成之后得到了 randkey 的账户,同样创建 dtable 文件:

ktadd -k/etc/security/keytabs/sn.service.keytab sn/cdh0.itcast.cn@ITCAST.CN,运行后会发现多了 sn。

同样改下权限:chmod 400 sn.service.keytab

chown hdfs:hadoop sn.service.keytab

没问题后回到 hdf 账户上,看到 klist 的认证还在,再来启动一下 secondarynamenode,再 jbs 一下,查看日志,确保没有问题,启动完成后打开 namenode 网站看一下(必须带S的安全才能访问)

以下就是 https 的网站,如图:

image.png

2、启动 Datanode

切换到 hdfs 账户

在 cdh1cdh2上分别执行下面的流积

认证 datanode 对应的 Kerberos 账户

执行:kinit -kt /etc/security/keytabs/dn.service.keytab dn/cdh1.itcast.cn@ITCAST.CN(认证)

上面的 cdhi 在 cdh2执行的时候换成 cdh2

执行 klist 直看是否认证成功

https 本地用户就有权限来操作 namenode了,

直接执行 hadoop-daemon.sh start datanode,进行检查,没有问题对 cdh2进行操作,认证成功以后会发现正常的且认证好 dn/cdh2.itcast.cn@ITCAST.CN,这个时候 hdfs 就有权限操作 Datanode 了,进行检查,再回到链接里进行刷新,会发现 live nodes 就有两个了,hdfs 正确的启动了起来。

image.png

(1)上传文件测试 hdfs

切换到 hdfs 下,会看到 LICENSE.txt,把他上传到 Hadoop,上传到 a.txt

su-hdfs

kinit-kt jetc/securitv/kevtabs/nn.service.kevtab nn/cdhe.itcast.cn

cd /bigdata/hadoop-268-cdh5.14.4

hadoop fs=put/READMEtxt/readme.txt

[hdfs@cdh hadoop-2.6.0-cdh1441$ hadoop fs-1s/

Found 1 items

-rw-r--"-- 3 hdfs hdfs 1366 2019-09-26 13:57 /readme.txt

hadoop fs -cat /readme.txt

没有问题,说明 Hadoop 是可以正常工作的

(2)创建相应的 hdfs 目录,并设置权限

先改一下根目录的权限,改为 adf 账户才有根目录权限,创建 tmp 文件夹,把 tmp 文件夹权限改为 adf 账户,文件夹是临时的,都可以用,将他改为777的权限,同样创建一个 user 的目录,把 user 的所属改为 hdfs 账户,把 user 改为775的权限,在创建 mr-data,把他的权限改为 mapred 这个账户,在 tmp 底下创建个 hadoop-yarn,跑 yarn 时会有一些临时路径在这里

hadoop fs -chown hdfs:hadoop /

hadoop fs -mkdir /tmp I

hadoop fs -chown hdfs:hadoop /tmp

hadoop fs -chmod 777 /tmp

hadoop fs -mkdir juser

hadoop fs -chown hdfs:hadoop /user

hadoop fs -chmod 775 /user

hadoop fs -mkdir /mr-data

hadoop fs -chown mapred:hadoop imr-data

hadoop fs -mkdir /tmp/hadoop-yarn

hadoop fs -chmod 770 /tmp/hadoop-yarn

以上没有问题 hdfs 配置就完成了。

相关文章
|
1月前
|
测试技术
自动化测试项目学习笔记(五):Pytest结合allure生成测试报告以及重构项目
本文介绍了如何使用Pytest和Allure生成自动化测试报告。通过安装allure-pytest和配置环境,可以生成包含用例描述、步骤、等级等详细信息的美观报告。文章还提供了代码示例和运行指南,以及重构项目时的注意事项。
162 1
自动化测试项目学习笔记(五):Pytest结合allure生成测试报告以及重构项目
|
15天前
|
Web App开发 定位技术 iOS开发
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
17 1
|
1月前
|
测试技术 Python
自动化测试项目学习笔记(四):Pytest介绍和使用
本文是关于自动化测试框架Pytest的介绍和使用。Pytest是一个功能丰富的Python测试工具,支持参数化、多种测试类型,并拥有众多第三方插件。文章讲解了Pytest的编写规则、命令行参数、执行测试、参数化处理以及如何使用fixture实现测试用例间的调用。此外,还提供了pytest.ini配置文件示例。
24 2
|
1月前
|
测试技术 Python
自动化测试项目学习笔记(二):学习各种setup、tearDown、断言方法
本文主要介绍了自动化测试中setup、teardown、断言方法的使用,以及unittest框架中setUp、tearDown、setUpClass和tearDownClass的区别和应用。
60 0
自动化测试项目学习笔记(二):学习各种setup、tearDown、断言方法
|
1月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
69 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
38 4
|
1月前
|
运维 监控 数据可视化
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
62 1
|
1月前
|
存储 数据采集 分布式计算
Hadoop-17 Flume 介绍与环境配置 实机云服务器测试 分布式日志信息收集 海量数据 实时采集引擎 Source Channel Sink 串行复制负载均衡
Hadoop-17 Flume 介绍与环境配置 实机云服务器测试 分布式日志信息收集 海量数据 实时采集引擎 Source Channel Sink 串行复制负载均衡
44 1
|
1月前
|
监控 Java Maven
springboot学习二:springboot 初创建 web 项目、修改banner、热部署插件、切换运行环境、springboot参数配置,打包项目并测试成功
这篇文章介绍了如何快速创建Spring Boot项目,包括项目的初始化、结构、打包部署、修改启动Banner、热部署、环境切换和参数配置等基础操作。
120 0
|
6天前
|
JSON Java 测试技术
SpringCloud2023实战之接口服务测试工具SpringBootTest
SpringBootTest同时集成了JUnit Jupiter、AssertJ、Hamcrest测试辅助库,使得更容易编写但愿测试代码。
34 3

热门文章

最新文章