HDFS常用文件操作-阿里云开发者社区

开发者社区> 大数据> 正文
登录阅读全文

HDFS常用文件操作

简介: 基本文件命令:格式为:hadoop fs -cmd <args> 例如,文件列表命令: hadoop fs -ls

put

上传文件    hadoop fs -put wordcount.txt   /data/wordcount/
text
查看文件内容   hadoop fs -text /output/wordcount/part-r-00000 
ls
hadoop fs -ls /   列出hdfs文件系统根目录下的目录和文件
hadoop fs -ls -R /   列出hdfs文件系统所有目录和文件

rm

hadoop fs -rm < hdfs file > ...

hadoop fs -rm -r < hdfs dir>...

每次可以删除多个文件或目录
mkdir
只能一级一级建目录,父目录不存在的话使用这个命令会报错
所创建的目录如果父目录不存在就创建该父目录
cp

目标文件不能存在,否则命令不能执行,相当于给文件重命名并保存,源文件还存在
hadoop fs -cp < hdfs file or dir >... < hdfs dir >

目标文件夹要存在,否则命令不能执行

mv

目标文件不能存在,否则命令不能执行,相当于给文件重命名并保存,源文件不存在


源路径有多个时,目标路径必须为目录,且必须存在。

count

统计hdfs对应路径下的目录个数,文件个数,文件总计大小
显示为目录个数,文件个数,文件总计大小,输入路径

du
显示hdfs对应路径下每个文件夹和文件的大小
显示hdfs对应路径下所有文件和的大小
stat

返回对应路径的状态信息

tail

在标准输出中显示文件末尾的1KB数据

balancer

如果管理员发现某些DataNode保存数据过多,某些DataNode保存数据相对较少,可以使用上述命令手动启动内部的均衡过程

hdfs dfsadmin -safemode < enter | leave | get | wait >
enter:进入安全模式;leave:离开安全模式;get:获知是否开启安全模式;

wait:等待离开安全模式

distcp

用来在两个HDFS之间拷贝数据

setrep

改变一个文件在hdfs中的副本个数,上述命令中数字3为所设置的副本个数,-R选项可以对一个人目录下的所有目录+文件递归执行改变副本个数的操作

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
大数据
使用钉钉扫一扫加入圈子
+ 订阅

大数据计算实践乐园,近距离学习前沿技术

其他文章