实验:熟悉常用的HDFS操作

简介: 实验:熟悉常用的HDFS操作

实验:熟悉常用的HDFS操作

实验目的

  1. 理解HDFS在Hadoop体系结构中的角色;
  2. 熟练使用HDFS操作常用的Shell命令
  3. 熟悉HDFS操作常用的Java API。

实验平台

操作系统:Linux

Hadoop版本:2.6.0或以上版本

JDK版本:1.6或以上版本

Java IDE:Eclipse

实验内容和要求

利用Hadoop提供的Shell命令实现以下指定功能:

向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;

1)启动Hadoop服务

2)在主机test文件夹里面创建两个任意文本文件用于实验:

echo "local.." > local.txt
echo "text .." >text.txt

3)上传本地文件到HDFS:

hadoop fs -put ./test/text.txt /user/hadoop/test

4)追加到文件末尾的指令:

hadoop fs -appendToFile ./test/local.txt /user/hadoop/test/text.txt

5)查看HDFS文件的内容:

hadoop fs -cat /user/hadoop/test/text.txt


6)覆盖原有文件的指令并查看:

hadoop fs -copyFromLocal -f ./test/local.txt /user/hadoop/test/text.txt
hadoop fs -cat /user/hadoop/test/text.txt

从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

1)创建download.sh的脚本

if $(hadoop fs -test -e /usr/local/hadoop/text.txt);

then $(hadoop fs -copyToLocal /user/hadoop/test/text.txt ./text.txt);

else $(hadoop fs -copyToLocal /user/hadoop/test/text.txt ./text2.txt);

fi

2)运行脚本并查看

bash ./download.sh

将HDFS中指定文件的内容输出到终端中;

hadoop fs -cat /user/hadoop/test/text.txt

显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

hadoop fs -ls -h /user/hadoop/test/text.txt

给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

hadoop fs -ls -R -h /user/hadoop/test

提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

1)写逻辑命令,并运行:

if $(hadoop fs -test -d /user/hadoop/test1);
then $(hadoop fs -touchz /user/hadoop/test1/text1.txt);
else $(hadoop fs -mkdir -p /user/hadoop/test1 && hdfs dfs -touchz /user/hadoop/test1/text1.txt);
fi

2)删除文件

hadoop fs -rm /user/hadoop/test1/text1.txt

提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

1)创建目录:

hadoop fs -mkdir -p /user/hadoop/test2

正在上传…重新上传取消

2)删除目录的命令(非空则会提示 not empty,删除操作不会执行)

hadoop fs -rmdir /user/hadoop/test2

3)强行删除

hadoop fs -rm -r /user/hadoop/test2

向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

1)追加到文件结尾并查看:

hadoop fs -appendToFile ./test/local.txt /user/hadoop/test/text.txt
 hadoop fs -cat /user/hadoop/test/text.txt

2)追加到文件开头并查看:

先从HDFS中get到内容

hadoop fs -get /user/hadoop/test/text.txt

将内容写到local.txt后面

cat /user/hadoop/test/text.txt >> ./test/local.txt

将local.txt里面的内容覆盖到/user/hadoop/test/text.txt里面

hadoop fs -copyFromLocal -f ./test/local.txt /user/hadoop/test/text.txt

删除HDFS中指定的文件;

hadoop fs -rm /user/hadoop/test/.bashrc

删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;

hadoop fs -rm -r /user/hadoop/test2

在HDFS中,将文件从源路径移动到目的路径。

将/user/hadoop/test/text.txt移动到/user/hadoop/test1/下面

hadoop fs -mv /user/hadoop/test/text.txt /user/hadoop/test1/

相关文章
|
7月前
|
Java API Maven
HDFS的API操作
HDFS的API操作
68 0
69 Azkaban HDFS操作任务
69 Azkaban HDFS操作任务
48 0
|
分布式计算 Java Hadoop
16 HDFS的java操作
16 HDFS的java操作
66 0
|
分布式计算 Hadoop 大数据
【大数据开发技术】实验05-HDFS目录与文件的创建删除与查询操作
【大数据开发技术】实验05-HDFS目录与文件的创建删除与查询操作
225 0
|
分布式计算 Hadoop 大数据
【大数据开发技术】实验04-HDFS文件创建与写入
【大数据开发技术】实验04-HDFS文件创建与写入
360 0
|
5月前
|
分布式计算 Hadoop 关系型数据库
实时计算 Flink版操作报错合集之Hadoop在将文件写入HDFS时,无法在所有指定的数据节点上进行复制,该如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
6月前
|
Java 大数据 API
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
155 0
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
|
6月前
|
分布式计算 Hadoop Java
分布式系统详解--框架(Hadoop--JAVA操作HDFS文件)
分布式系统详解--框架(Hadoop--JAVA操作HDFS文件)
51 0
|
存储 分布式计算 Hadoop
HDFS基本原理及操作
通过实验了解HDFS的基本原理,掌握HDFS Shell常用命令。
|
7月前
|
分布式计算 Java 大数据
大数据 | Java 操作 HDFS 常用 API
大数据 | Java 操作 HDFS 常用 API
705 0

热门文章

最新文章

相关实验场景

更多
下一篇
DataWorks