hadoop安装使用的命令+linux基本操作命令+HDFS常用命令

简介: 一、Hadoop基本安装主要包括以下6个步骤:1.创建Hadoop用户。2.更新apt和安装Vim编辑器。3.安装SSH和配置SSH无密码登录。4.安装Java环境。5.安装单机Hadoop。6.HDFS:启动

一、Hadoop基本安装主要包括以下6个步骤:

1.创建Hadoop用户。
2.更新apt和安装Vim编辑器。
3.安装SSH和配置SSH无密码登录。
4.安装Java环境。
5.安装单机Hadoop。
6.HDFS:启动

1.创建Hadoop用户:

a.创建用户命令如下:
sudo useradd -m hadoop -s /bin/bash
b.接着使用命令设置密码(一半设为hadoop)
sudo passwd hadoop(注意要输入两次)
c.为hadoop用户增加管理员权限(避免一些比较棘手的权限问题)
sudo adduserr hadoop sudo

2.更新apt和安装Vim编辑器

a.更新apt
sudo apt-get update
b.安装Vim编辑器
sudo aot-get install vim

3.安装SSH和配置SSH无密码登录

a.sudo apt-get install openssh-server
b.ssh localhost
出现提示后输入yes并输入密码就可以了,但是每次登录都要输入密码,搜易我们设置无密码登录
c.exit
d.cd ~/.ssh/
e.ssh-keygen -t rsa(一直回车)
f.cat ./id_rsa.pub >> ./authorized_keys(完成)

4.安装Java环境(这一部分考的概率不是很大)

a.配置完环境变量时,让其生效命令 source ~/.bashrc
b.查看是否安装成功  java -version
c.如果能显示具体的版本号,就说明安装成功了。  java version "1.8.0_162"... ...

5.安装单机Hadoop

a.先解压
b.修改目录权限  sudo chown -R hadoop ./hadoop
c.查看版本信息  ./bin/hadoop version (注意:要在hadoop目录主下)
d.如果显示Hadoop的具体版本就成功了  Hadoop 3.1.3  ... ...

5.1.创建input目录,用来存放目录

cd /usr/local/hadoop
mkdir input

5.2.将 /usr/local/hadoop/etc/hadoop 目录下的配置文件复制到input目录下,命令如下:

cp ./etc/hadoop/*.xml ./input

5.3.运行hadoop自带的Grep实例

5.4.查看输出数据:

cat ./output/*

5.5.可以得到以下结果:

dfsadmin
dfs.replication
dfs.namenode.name.dir
dfs.datanode.data.dir

6.HDFS的启动命令:

cd /usr/local/hadoop
./sbin/start-dfs.sh
启动过程中所有的启动信息都写进了对应的日志文件,如果出现错误,可以在日志文件中查看

6.1查看是否启动成功:

输入:jps
输出:jps
NameNode
SecondaryNameNode
DataNode

6.2查看Hadoop的信息:

http://localhost:9870

6.3在HDFS创建的hadoop用户的用户目录

cd /usr/local/hadoop
./bin/hdfs dfs -mkdir -p /user/hadoop

6.4在HDFS的“/user/hadoop”目录下创建input目录

./bin/hdfs dfs -mkdir input

6.5实现文件上传:

./bin/hdfs dfs -put ./etc/hadoop/*.xml input

6.6运行测试样例程序Grep

6.7系统会自动创建output目录,结果会存储在这里面

6.8查看结果:

./bin/hdfs dfs -cat output/*
会得到相同的结果。

6.9注意:

当重新运行程序时,首先将output目录删除
删除命令:./bin/hdfs dfs -rm -r output

6.10当需要停止HDFS时命令:

cd /usr/local/hadoop
./sbin/stop-dfs.sh

二、Linux基本命令

1.cd 命令:切换目录

a.切换到指定目录:cd /usr/local/hadoop
b.切换到当前目录的上一级 cd ..
c.切换到当前登录Linux操作系统的用户的自己的主文件夹  cd /home/你的名字

2.ls 命令:查看文件与目录

查看目录“/usr”下的所有文件和目录 ls -l/-a

3.mkdir 命令:新建目录

a.进入/tmp目录,创建一个名为‘a’的目录,并查看此目录下已经存放了那些目录
cd /tmp
mkdir a
ls -l
b.进入/tmp目录,创建“a1/a2/a3/a4”
mkdir -p a1/a2/a3/a4

4.rmdir 命令:删除空的目录

5.cp 命令:复制文件或目录:


目录
打赏
0
0
0
0
18
分享
相关文章
【赵渝强老师】史上最详细:Hadoop HDFS的体系架构
HDFS(Hadoop分布式文件系统)由三个核心组件构成:NameNode、DataNode和SecondaryNameNode。NameNode负责管理文件系统的命名空间和客户端请求,维护元数据文件fsimage和edits;DataNode存储实际的数据块,默认大小为128MB;SecondaryNameNode定期合并edits日志到fsimage中,但不作为NameNode的热备份。通过这些组件的协同工作,HDFS实现了高效、可靠的大规模数据存储与管理。
364 70
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
392 6
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
156 3
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
138 4
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
241 3
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
147 2
|
9月前
|
SQL
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
116 2
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
136 1
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
244 0
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
113 0
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问