HDFS命令行客户端使用,命令行客户端支持的命令参数,常用命令参数介绍

简介: 3.HDFS的shell(命令行客户端)操作3.1 HDFS命令行客户端使用HDFS提供shell命令行客户端,使用方法如下:[toto@hadoop hadoop-2.8.0]$ hdfs dfs -ls /     (推荐使用这种方式,hdfs现在这种是最新的一种方式) Found 4 items drwxr-xr-x   - toto supergroup        

3.HDFS的shell(命令行客户端)操作

3.1 HDFS命令行客户端使用

HDFS提供shell命令行客户端,使用方法如下:

[toto@hadoop hadoop-2.8.0]$ hdfs dfs -ls /     (推荐使用这种方式,hdfs现在这种是最新的一种方式)

Found 4 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /findbugs-1.3.9

drwxr-xr-x   - toto supergroup          0 2017-05-29 03:23 /hive

drwx------   - toto supergroup          0 2017-05-29 14:47 /tmp

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:47 /user

[toto@hadoop hadoop-2.8.0]$

 

或者使用:

[toto@hadoop hadoop-2.8.0]$ hadoop fs -ls /

Found 4 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /findbugs-1.3.9

drwxr-xr-x   - toto supergroup          0 2017-05-29 03:23 /hive

drwx------   - toto supergroup          0 2017-05-29 14:47 /tmp

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:47 /user

[toto@hadoop hadoop-2.8.0]$

 

3.2 命令行客户端支持的命令参数

[toto@hadoop learn]$ hadoop fs help

Usage: hadoop fs [generic options]

       [-appendToFile <localsrc> ... <dst>]

       [-cat [-ignoreCrc] <src> ...]

       [-checksum <src> ...]

       [-chgrp [-R] GROUP PATH...]

       [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]

       [-chown [-R] [OWNER][:[GROUP]] PATH...]

       [-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]

       [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]

       [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]

       [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]

       [-createSnapshot <snapshotDir> [<snapshotName>]]

       [-deleteSnapshot <snapshotDir> <snapshotName>]

       [-df [-h] [<path> ...]]

       [-du [-s] [-h] [-x] <path> ...]

       [-expunge]

       [-find <path> ... <expression> ...]

       [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]

       [-getfacl [-R] <path>]

       [-getfattr [-R] {-n name | -d} [-e en] <path>]

       [-getmerge [-nl] [-skip-empty-file] <src> <localdst>]

       [-help [cmd ...]]

       [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]

       [-mkdir [-p] <path> ...]

       [-moveFromLocal <localsrc> ... <dst>]

       [-moveToLocal <src> <localdst>]

       [-mv <src> ... <dst>]

       [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]

       [-renameSnapshot <snapshotDir> <oldName> <newName>]

       [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]

       [-rmdir [--ignore-fail-on-non-empty] <dir> ...]

       [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]

       [-setfattr {-n name [-v value] | -x name} <path>]

       [-setrep [-R] [-w] <rep> <path> ...]

       [-stat [format] <path> ...]

       [-tail [-f] <file>]

       [-test -[defsz] <path>]

       [-text [-ignoreCrc] <src> ...]

       [-touchz <path> ...]

       [-truncate [-w] <length> <path> ...]

       [-usage [cmd ...]]

 

 [toto@hadoop learn]$

 

3.2 常用命令参数介绍

关于hdfs的命令,可以查看http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html

FS Shell

调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout

 

 

-help            

功能:输出这个命令参数手册

-ls 

功能:显示目录信息

示例: hadoop fs -ls hdfs://hadoop:9000/

备注:这些参数中,所有的hdfs路径都可以简写

-->hadoop fs -ls /   等同于上一条命令的效果

[toto@hadoop learn]$ hadoop fs -ls hdfs://hadoop:9000/

Found 4 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 hdfs://hadoop:9000/findbugs-1.3.9

drwxr-xr-x   - toto supergroup          0 2017-05-29 03:23 hdfs://hadoop:9000/hive

drwx------   - toto supergroup          0 2017-05-29 14:47 hdfs://hadoop:9000/tmp

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:47 hdfs://hadoop:9000/user

[toto@hadoop learn]$

 

上面的命令等同:hadoop fs -ls /

 

[toto@hadoop learn]$ hadoop fs -ls hdfs://hadoop:9000/findbugs-1.3.9

下面的命令表示同时列出hdfs://hadoop:9000/findbugs-1.3.9和hive下面的内容

[toto@hadoop learn]$ hadoop fs -ls hdfs://hadoop:9000/findbugs-1.3.9 /hive

-mkdir   

 

mkdir

使用方法:hadoop fs -mkdir <paths> 

功能:在hdfs上创建目录,接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。

示例:hadoop fs  -mkdir  -p  /aaa/bbb/cc/dd

 

再如示例:

[toto@hadoop learn]$hadoop fs –mkdir -p /user/hadoop/dir1 /user/hadoop/dir2

[toto@hadoop learn]$ hadoop fs -mkdir -p hdfs://hadoop:9000/toto hdfs://hadoop:9000/toto2

[toto@hadoop learn]$ hadoop fs -ls /

Found 6 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /findbugs-1.3.9

drwxr-xr-x   - toto supergroup          0 2017-05-29 03:23 /hive

drwx------   - toto supergroup          0 2017-05-29 14:47 /tmp

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:40 /toto

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:41 /toto2

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:36 /user

 

对应浏览器上的访问效果如下:http://hadoop:50070/explorer.html#/

显示效果一致

-moveFromLocal  

使用方法:dfs -moveFromLocal <src> <dst>

功能:从本地剪切粘贴到hdfs

[toto@hadoop learn]$ ls

hadoop  LICENSE-ASM.txt

[toto@hadoop learn]$ hdfs dfs -moveFromLocal LICENSE-ASM.txt /toto

[toto@hadoop learn]$ hdfs dfs -ls /toto

Found 1 items

-rw-r--r--   3 toto supergroup       1511 2017-05-29 23:50 /toto/LICENSE-ASM.txt

[toto@hadoop learn]$

 

再如:

[toto@hadoop learn]$ hadoop fs -moveFromLocal hadoop /toto

[toto@hadoop learn]$ hadoop fs -ls /toto

Found 2 items

-rw-r--r--   3 toto supergroup       1511 2017-05-29 23:50 /toto/LICENSE-ASM.txt

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:53 /toto/hadoop

[toto@hadoop learn]$

 

-moveToLocal             

功能:从hdfs剪切粘贴到本地

示例:hadoop  fs  - moveToLocal   /aaa/bbb/cc/dd  /home/hadoop/a.txt

--appendToFile 

功能:追加一个文件到已经存在的文件末尾

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

实际案例:

[toto@hadoop learn]$ hadoop fs -put text.txt /toto

[toto@hadoop learn]$ hadoop fs -ls /toto

Found 3 items

-rw-r--r--   3 toto supergroup       1511 2017-05-29 23:50 /toto/LICENSE-ASM.txt

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:53 /toto/hadoop

-rw-r--r--   3 toto supergroup          0 2017-05-29 23:59 /toto/text.txt

[toto@hadoop learn]$ cat hello.txt

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

将文件上传到hdfs

[toto@hadoop learn]$ hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/toto/text.txt

查看拼接到text.txt中的内容

[toto@hadoop learn]$ hadoop fs -cat /toto/text.txt

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

[toto@hadoop learn]$

-cat 

功能:显示文件内容 

示例:hadoop fs -cat  /hello.txt

 

 

-tail                

功能:显示一个文件的末尾

示例:hadoop  fs  -tail  /weblog/access_log.1

实际案例:

[toto@hadoop learn]$ hadoop fs -tail /toto/text.txt

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

[toto@hadoop learn]$

 

 

 

-text                 

功能:以字符形式打印一个文件的内容

示例:hadoop  fs  -text  /weblog/access_log.1

实际案例:

[toto@hadoop learn]$ hadoop fs -text /toto/text.txt

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

[toto@hadoop learn]$

-chgrp

-chmod

-chown

功能:linux文件系统中的用法一样,对文件所属权限

示例:

hadoop  fs  -chmod  666  /hello.txt

hadoop  fs  -chown  someuser:somegrp   /hello.txt

 

实际案例:

[toto@hadoop learn]$ hadoop fs -chmod 777 /toto/text.txt

[toto@hadoop learn]$ hadoop fs -ls /toto/text.txt

-rwxrwxrwx   3 toto supergroup        149 2017-05-30 00:01 /toto/text.txt

[toto@hadoop learn]$ hadoop fs -chmod 666 /toto/text.txt

[toto@hadoop learn]$ hadoop fs -ls /toto/text.txt

-rw-rw-rw-   3 toto supergroup        149 2017-05-30 00:01 /toto/text.txt

[toto@hadoop learn]$

-copyFromLocal   

功能:从本地文件系统中拷贝文件到hdfs路径去

示例:hadoop  fs  -copyFromLocal  ./jdk.tar.gz  /aaa/

 

实际案例:

[toto@hadoop learn]$ cat hello.txt

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

[toto@hadoop learn]$ hadoop fs -copyFromLocal ./hello.txt /toto2

[toto@hadoop learn]$ ls

hello.txt  text.txt

[toto@hadoop learn]$ hadoop fs -ls /toto2

Found 1 items

-rw-r--r--   3 toto supergroup        149 2017-05-30 00:09 /toto2/hello.txt

[toto@hadoop learn]$

 

-copyToLocal     

功能:从hdfs拷贝到本地

示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz

实际案例:

[toto@hadoop learn]$ hadoop fs -ls /

Found 6 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /findbugs-1.3.9

drwxr-xr-x   - toto supergroup          0 2017-05-29 03:23 /hive

drwx------   - toto supergroup          0 2017-05-29 14:47 /tmp

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:59 /toto

drwxr-xr-x   - toto supergroup          0 2017-05-30 00:09 /toto2

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:36 /user

[toto@hadoop learn]$ hadoop fs -copyToLocal /findbugs-1.3.9 ./

[toto@hadoop learn]$ ls

findbugs-1.3.9  hello.txt  text.txt

[toto@hadoop learn]$ hadoop fs -ls /

Found 6 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /findbugs-1.3.9

drwxr-xr-x   - toto supergroup          0 2017-05-29 03:23 /hive

drwx------   - toto supergroup          0 2017-05-29 14:47 /tmp

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:59 /toto

drwxr-xr-x   - toto supergroup          0 2017-05-30 00:09 /toto2

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:36 /user

[toto@hadoop learn]$

-cp             

功能:从hdfs的一个路径拷贝hdfs的另一个路径

示例: hadoop  fs  -cp  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2

Usage: hadoop fs [generic options] -cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>

[toto@hadoop learn]$ hadoop fs -cp -p /findbugs-1.3.9 /toto2

[toto@hadoop learn]$ hadoop fs -ls /toto2

Found 2 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /toto2/findbugs-1.3.9

-rw-r--r--   3 toto supergroup        149 2017-05-30 00:09 /toto2/hello.txt

[toto@hadoop learn]$

 

 

-mv                    

功能:在hdfs目录中移动文件

示例: hadoop  fs  -mv  /aaa/jdk.tar.gz  /

实际案例:

[toto@hadoop learn]$ hadoop fs -ls /toto2

Found 2 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:01 /toto2/findbugs-1.3.9

-rw-r--r--   3 toto supergroup        149 2017-05-30 00:09 /toto2/hello.txt

[toto@hadoop learn]$ hadoop fs -mv /toto/hello.txt /user

mv: `/toto/hello.txt': No such file or directory

[toto@hadoop learn]$ hadoop fs -mv /toto2/hello.txt /user

[toto@hadoop learn]$ hadoop fs -ls /user

Found 3 items

drwxr-xr-x   - toto supergroup          0 2017-05-29 23:36 /user/hadoop

-rw-r--r--   3 toto supergroup        149 2017-05-30 00:09 /user/hello.txt

drwxr-xr-x   - toto supergroup          0 2017-05-29 14:51 /user/toto

[toto@hadoop learn]$

-get             

功能:等同于copyToLocal,就是从hdfs下载文件到本地

示例:hadoop fs -get  /aaa/jdk.tar.gz

     

功能:合并下载多个文件

示例:比getmerge    如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...

hadoop fs -getmerge /aaa/log.* ./log.sum

-put               

功能:等同于copyFromLocal

示例:hadoop  fs  -put  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2

-rm               

功能:删除文件或文件夹

示例:hadoop fs -rm -r /aaa/bbb/

实际案例:

 

-rmdir                

功能:删除空目录

示例:hadoop  fs  -rmdir   /aaa/bbb/ccc

 

删除非空文件夹时不让报错的命令:

hadoop fs -rmdir --ignore-fail-on-non-empty /toto2/findbugs-1.3.9/lib

-df              

功能:统计文件系统的可用空间信息

示例:hadoop  fs  -df  -h  /

[toto@hadoop learn]$ hdfs dfs -df -h /

Filesystem             Size     Used  Available  Use%

hdfs://hadoop:9000  134.4 G  472.4 M     97.8 G    0%

 

 

-du

功能:统计文件夹的大小信息

示例:

hadoop  fs  -du  -s  -h /aaa/*

[toto@hadoop learn]$ hadoop fs -du -s -h /toto2

2.3 M  /toto2

[toto@hadoop learn]$

-count        

功能:统计一个指定目录下的文件节点数量

示例:hadoop fs -count /aaa/

 

-setrep               

功能:设置hdfs中文件的副本数量

示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz   (这里的3)

实际命令:

[toto@hadoop learn]$ hadoop fs -setrep 3 /toto2/findbugs-1.3.9

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-ASM.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-bcel.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-commons-lang.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-docbook.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-dom4j.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jFormatString.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jaxen.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jcip.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jdepend.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jsr305.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-mysql-connector.txt

Replication 3 set: /toto2/findbugs-1.3.9/LICENSE.txt

 

 

补充:查看dfs集群工作状态的命令

hdfs dfsadmin -report

 

目录
相关文章
|
存储 分布式计算 Hadoop
HDFS 修改副本数&fsck命令
HDFS 修改副本数&fsck命令
586 0
|
6月前
|
分布式计算 Java 大数据
【大数据技术Hadoop+Spark】HDFS Shell常用命令及HDFS Java API详解及实战(超详细 附源码)
【大数据技术Hadoop+Spark】HDFS Shell常用命令及HDFS Java API详解及实战(超详细 附源码)
691 0
|
存储 分布式计算 Hadoop
aws s3常用命令、hdfs dfs/hadoop fs常用命令
aws s3常用命令、hdfs dfs/hadoop fs常用命令
1172 0
|
3月前
|
安全 Linux Shell
HDFS常用命令
HDFS常用命令
36 1
|
1月前
|
分布式计算 Hadoop 网络安全
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
28 1
|
3月前
|
存储 分布式计算 Hadoop
HDFS基本命令及上传文件API
HDFS基本命令及上传文件API
107 0
|
4月前
|
分布式计算 Hadoop
hadoop格式化HDFS的命令
【7月更文挑战第21天】
462 5
|
6月前
|
分布式计算 Hadoop Shell
Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第4天】Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
100 5
|
弹性计算 分布式计算 网络协议
聊聊复杂网络环境下hdfs的BlockMissingException异常|参数dfs.client.use.datanode.hostname
企业真实的网络环境是复杂多变的,在复杂的网络环境中部署并使用 hadoop 时,如果服务端的配置或客户端的使用不当,就可能会遇见各种问题。
聊聊复杂网络环境下hdfs的BlockMissingException异常|参数dfs.client.use.datanode.hostname
下一篇
无影云桌面