aws s3常用命令、hdfs dfs/hadoop fs常用命令

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: aws s3常用命令、hdfs dfs/hadoop fs常用命令

一、aws s3常用命令

1、查看目录下所有文件夹(|head查看前10个):

aws s3 ls s3://mleang/qk/data/
aws s3 ls s3://dfiee/06/|head

查看文件夹大小:

aws s3 ls  s3://acne-l/202221/ --s --h
# 输出结果
Total Objects: 1001
   Total Size: 226.0 GiB

2、复制文件到s3:

aws s3 cp *** s3://bucket-name/

从s3复制文件到其他地方(后面是复制后的名称,注意相对路径/绝对路径)

aws s3 cp s3://mning/qz/dta/anis19.csv eve19.csv (路径...)
aws s3 cp s3://dfirose/06/5e8b.gz test.gz

3、复制文件夹:

aws s3 cp s3://bucket-name/examples3://my-bucket/

4、使用echo将文本“helloworld”流式传输到s3://bucket-name/filename.txt 文件:

echo "hello world" | aws s3 cp - s3://bucket-name/filename.txt

5、将 s3://bucket-name/filename.txt 文件流式传输到 stdout,并将内容输出到控制台:

aws s3 cp s3://bucket-name/filename.txt -

6、将 s3://bucket-name/pre 的内容流式传输到 stdout,使用 bzip2 命令压缩文件,并将名为 key.bz2 的新压缩文件上传到 s3://bucket-nam:

aws s3 cp s3://bucket-name/pre - |bzip2 --best | aws s3 cp - s3://bucket-name/key.bz2

7、同步文件到s3:

(sync 命令同步一个存储桶与一个目录中的内容,或者同步两个存储桶中的内容。通常,s3 sync 在源和目标之间复制缺失或过时的文件或对象)

aws s3 sync ***  s3://my-bucket/***/
aws s3 sync s3://mlaing/logtter/1226 ienlog_1226 --quiet

--quiet代表不显示指定命令执行的操作(不输出过程)

8、删除S3上文件:

aws s3 rm  s3://my-bucket/***

9、删除S3上文件夹:

aws s3 rm  s3://my-bucket/*** —recursive

10、移动S3上文件夹:(移动example中所有对象到my-bucket/)

aws s3 mv s3://bucket-name/example s3://my-bucket/

11、移动文件:

aws s3 mv filename.txts3://bucket-name

12、转移s3某一个目录下所有.jpg文件到本地目录./aa:

aws s3 mv s3://bucket-name/*** ./aa —exclude ‘*’—include ‘*.jpg’ —recursive

13、从s3上拉取文件夹到本地文件夹./aa:

s3 cmd get s3://bucket-name/***/ ./aa —recursive

14、创建存储桶:$aws s3 mb [--options]

aws s3 mb s3://bucket-name

15、查看存储桶:$aws s3 ls [--options]

要列出存储桶、文件夹或对象,请使用 s3 ls 命令。使用不带目标或选项的命令时,将会列出所有存储桶。

aws s3 ls s3://bucket-name

16、删除存储桶:$aws s3 rb [--options]

aws s3 rb s3://bucket-name

二、hdfs dfs命令/hadoop fs命令

hadoop fs 具体命令  或者  hdfs dfs 具体命令:两个是完全相同的。

0、命令大全

hadoop fs 或 hdfs dfs

通过-help 得到命令用法

hadoop fs -help mkdir

1、-mkdir 创建目录

Usage:hdfs dfs -mkdir [-p] < paths>

选项:-p 很像Unix mkdir -p,沿路径创建父目录。

2、-ls 查看目录下内容,包括文件名,权限,所有者,大小和修改时间 Usage:hdfs dfs -ls [-R] < args>

选项:-R 递归地显示子目录下的内容

3、-put 将本地文件或目录上传到HDFS中的路径

Usage:hdfs dfs -put < localsrc> … < dst>

4、-get 将文件或目录从HDFS中的路径拷贝到本地文件路径

Usage:hdfs dfs -get [-ignoreCrc] [-crc] < src> < localdst>

选项:-ignoreCrc选项复制CRC校验失败的文件。-crc选项复制文件和CRC。

5、-du 显示给定目录中包含的文件和目录的大小或文件的长度,用字节大小表示,文件名用完整的HDFS协议前缀表示,以防它只是一个文件。

Usage:hdfs dfs -du [-s] [-h] URI [URI …]

选项:-s选项将显示文件长度的汇总摘要,而不是单个文件。-h选项将以“人类可读”的方式格式化文件大小(例如64.0m而不是67108864)

6、-dus 显示文件长度的摘要。

Usage:hdfs dfs -dus < args>

注意:不推荐使用此命令。而是使用hdfs dfs -du -s。

7、-mv 在HDFS文件系统中,将文件或目录从HDFS的源路径移动到目标路径。不允许跨文件系统移动文件。

Usage: hdfs dfs -mv URI [URI …] < dest>

8、-cp 在HDFS文件系统中,将文件或目录复制到目标路径下

Usage:hdfs dfs -cp [-f] [-p | -p [topax] ] URI [ URI …] < dest>

选项:-f选项覆盖已经存在的目标。-p选项将保留文件属性[topx](时间戳,所有权,权限,ACL,XAttr)。如果指定了-p且没有arg,则保留时间戳,所有权和权限。如果指定了-pa,则还保留权限,因为ACL是一组超级权限。确定是否保留原始命名空间扩展属性与-p标志无关。

9、-copyFromLocal 从本地复制文件到hdfs文件系统(与-put命令相似)

Usage: hdfs dfs -copyFromLocal < localsrc> URI

选项:如果目标已存在,则-f选项将覆盖目标。

10、-copyToLocal 复制hdfs文件系统中的文件到本地 (与-get命令相似)

Usage: hdfs dfs -copyToLocal [-ignorecrc] [-crc] URI < localdst>

11、-rm 删除一个文件或目录

Usage:hdfs dfs -rm [-f] [-r|-R] [-skipTrash] URI [URI …]

选项:如果文件不存在,-f选项将不显示诊断消息或修改退出状态以反映错误。-R选项以递归方式删除目录及其下的任何内容。-r选项等效于-R。-skipTrash选项将绕过垃圾桶(如果已启用),并立即删除指定的文件。当需要从超配额目录中删除文件时,这非常有用。

12、-cat 显示文件内容到标准输出上。

Usage:hdfs dfs -cat URI [URI …]

13、-text 获取源文件并以文本格式输出文件。允许的格式为zip和TextRecordInputStream。

Usage: hdfs dfs -text

14、-touchz 创建一个零长度的文件。

Usage:hdfs dfs -touchz URI [URI …]

15、-stat 显示文件所占块数(%b),文件名(%n),块大小(%n),复制数(%r),修改时间(%y%Y)。

Usage:hdfs dfs -stat URI [URI …]

16、-tail 显示文件的最后1kb内容到标准输出

Usage:hdfs dfs -tail [-f] URI

选项:-f选项将在文件增长时输出附加数据,如在Unix中一样。

17、-count 统计与指定文件模式匹配的路径下的目录,文件和字节数

Usage: hdfs dfs -count [-q] [-h] < paths>

18、-getmerge 将源目录和目标文件作为输入,并将src中的文件连接到目标本地文件(把两个文件的内容合并起来)

Usage:hdfs dfs -getmerge < src> < localdst> [addnl]

注:合并后的文件位于当前目录,不在hdfs中,是本地文件

19、-grep 从hdfs上过滤包含某个字符的行内容

Usage:hdfs dfs -cat < srcpath> | grep 过滤字段

20、-moveFromLocal 从本地剪切粘贴到 HDFS 指定目录

dfs -moveFromLocal <src> <dst>

21、-appendToFile 追加一个文件到已经存在的文件末尾

hadoop shell官网

相对路径

相对路径就是相对于当前文件的路径。

1、如何表示同级目录的文件

2.py和3.txt在同一个文件夹下, 如果2.py想要调用3.txt,可以在2.py中这样写:

with open(r'3.txt', 'r') as f:
    print(f.read())

2、如何表示上级目录的文件   

1.txt是2.py的上级目录中的文件,如果2.py想要调用1.txt,可以在2.py中这样写:

with open(r'../1.txt', 'r') as f:
    print(f.read())

../ 代表一级上级目录(间隔一个目录) ../../代表二级上级目录(间隔两个目录)

3、如何表示下级目录的文件 2.txt是2.py的下级目录data中的文件,如果2.py想要调用2.txt,可以在2.py中这样写:

with open(r'data/2.txt', 'r') as f:
    print(f.read())

绝对路径

with open('/Users/michael/data/test.jpg', 'rb') as f:
    print(f.read())

参考:

相关文章
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
151 6
|
1月前
|
SQL 分布式计算 监控
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
60 3
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
41 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
45 2
|
1月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
39 1
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
86 0
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
37 0
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
46 0
|
1月前
|
存储 分布式计算 资源调度
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
75 5
|
1月前
|
资源调度 数据可视化 大数据
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(二)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(二)
36 4

相关实验场景

更多