aws s3常用命令、hdfs dfs/hadoop fs常用命令

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介: aws s3常用命令、hdfs dfs/hadoop fs常用命令

一、aws s3常用命令

1、查看目录下所有文件夹(|head查看前10个):

aws s3 ls s3://mleang/qk/data/
aws s3 ls s3://dfiee/06/|head

查看文件夹大小:

aws s3 ls  s3://acne-l/202221/ --s --h
# 输出结果
Total Objects: 1001
   Total Size: 226.0 GiB

2、复制文件到s3:

aws s3 cp *** s3://bucket-name/

从s3复制文件到其他地方(后面是复制后的名称,注意相对路径/绝对路径)

aws s3 cp s3://mning/qz/dta/anis19.csv eve19.csv (路径...)
aws s3 cp s3://dfirose/06/5e8b.gz test.gz

3、复制文件夹:

aws s3 cp s3://bucket-name/examples3://my-bucket/

4、使用echo将文本“helloworld”流式传输到s3://bucket-name/filename.txt 文件:

echo "hello world" | aws s3 cp - s3://bucket-name/filename.txt

5、将 s3://bucket-name/filename.txt 文件流式传输到 stdout,并将内容输出到控制台:

aws s3 cp s3://bucket-name/filename.txt -

6、将 s3://bucket-name/pre 的内容流式传输到 stdout,使用 bzip2 命令压缩文件,并将名为 key.bz2 的新压缩文件上传到 s3://bucket-nam:

aws s3 cp s3://bucket-name/pre - |bzip2 --best | aws s3 cp - s3://bucket-name/key.bz2

7、同步文件到s3:

(sync 命令同步一个存储桶与一个目录中的内容,或者同步两个存储桶中的内容。通常,s3 sync 在源和目标之间复制缺失或过时的文件或对象)

aws s3 sync ***  s3://my-bucket/***/
aws s3 sync s3://mlaing/logtter/1226 ienlog_1226 --quiet

--quiet代表不显示指定命令执行的操作(不输出过程)

8、删除S3上文件:

aws s3 rm  s3://my-bucket/***

9、删除S3上文件夹:

aws s3 rm  s3://my-bucket/*** —recursive

10、移动S3上文件夹:(移动example中所有对象到my-bucket/)

aws s3 mv s3://bucket-name/example s3://my-bucket/

11、移动文件:

aws s3 mv filename.txts3://bucket-name

12、转移s3某一个目录下所有.jpg文件到本地目录./aa:

aws s3 mv s3://bucket-name/*** ./aa —exclude ‘*’—include ‘*.jpg’ —recursive

13、从s3上拉取文件夹到本地文件夹./aa:

s3 cmd get s3://bucket-name/***/ ./aa —recursive

14、创建存储桶:$aws s3 mb [--options]

aws s3 mb s3://bucket-name

15、查看存储桶:$aws s3 ls [--options]

要列出存储桶、文件夹或对象,请使用 s3 ls 命令。使用不带目标或选项的命令时,将会列出所有存储桶。

aws s3 ls s3://bucket-name

16、删除存储桶:$aws s3 rb [--options]

aws s3 rb s3://bucket-name

二、hdfs dfs命令/hadoop fs命令

hadoop fs 具体命令  或者  hdfs dfs 具体命令:两个是完全相同的。

0、命令大全

hadoop fs 或 hdfs dfs

通过-help 得到命令用法

hadoop fs -help mkdir

1、-mkdir 创建目录

Usage:hdfs dfs -mkdir [-p] < paths>

选项:-p 很像Unix mkdir -p,沿路径创建父目录。

2、-ls 查看目录下内容,包括文件名,权限,所有者,大小和修改时间 Usage:hdfs dfs -ls [-R] < args>

选项:-R 递归地显示子目录下的内容

3、-put 将本地文件或目录上传到HDFS中的路径

Usage:hdfs dfs -put < localsrc> … < dst>

4、-get 将文件或目录从HDFS中的路径拷贝到本地文件路径

Usage:hdfs dfs -get [-ignoreCrc] [-crc] < src> < localdst>

选项:-ignoreCrc选项复制CRC校验失败的文件。-crc选项复制文件和CRC。

5、-du 显示给定目录中包含的文件和目录的大小或文件的长度,用字节大小表示,文件名用完整的HDFS协议前缀表示,以防它只是一个文件。

Usage:hdfs dfs -du [-s] [-h] URI [URI …]

选项:-s选项将显示文件长度的汇总摘要,而不是单个文件。-h选项将以“人类可读”的方式格式化文件大小(例如64.0m而不是67108864)

6、-dus 显示文件长度的摘要。

Usage:hdfs dfs -dus < args>

注意:不推荐使用此命令。而是使用hdfs dfs -du -s。

7、-mv 在HDFS文件系统中,将文件或目录从HDFS的源路径移动到目标路径。不允许跨文件系统移动文件。

Usage: hdfs dfs -mv URI [URI …] < dest>

8、-cp 在HDFS文件系统中,将文件或目录复制到目标路径下

Usage:hdfs dfs -cp [-f] [-p | -p [topax] ] URI [ URI …] < dest>

选项:-f选项覆盖已经存在的目标。-p选项将保留文件属性[topx](时间戳,所有权,权限,ACL,XAttr)。如果指定了-p且没有arg,则保留时间戳,所有权和权限。如果指定了-pa,则还保留权限,因为ACL是一组超级权限。确定是否保留原始命名空间扩展属性与-p标志无关。

9、-copyFromLocal 从本地复制文件到hdfs文件系统(与-put命令相似)

Usage: hdfs dfs -copyFromLocal < localsrc> URI

选项:如果目标已存在,则-f选项将覆盖目标。

10、-copyToLocal 复制hdfs文件系统中的文件到本地 (与-get命令相似)

Usage: hdfs dfs -copyToLocal [-ignorecrc] [-crc] URI < localdst>

11、-rm 删除一个文件或目录

Usage:hdfs dfs -rm [-f] [-r|-R] [-skipTrash] URI [URI …]

选项:如果文件不存在,-f选项将不显示诊断消息或修改退出状态以反映错误。-R选项以递归方式删除目录及其下的任何内容。-r选项等效于-R。-skipTrash选项将绕过垃圾桶(如果已启用),并立即删除指定的文件。当需要从超配额目录中删除文件时,这非常有用。

12、-cat 显示文件内容到标准输出上。

Usage:hdfs dfs -cat URI [URI …]

13、-text 获取源文件并以文本格式输出文件。允许的格式为zip和TextRecordInputStream。

Usage: hdfs dfs -text

14、-touchz 创建一个零长度的文件。

Usage:hdfs dfs -touchz URI [URI …]

15、-stat 显示文件所占块数(%b),文件名(%n),块大小(%n),复制数(%r),修改时间(%y%Y)。

Usage:hdfs dfs -stat URI [URI …]

16、-tail 显示文件的最后1kb内容到标准输出

Usage:hdfs dfs -tail [-f] URI

选项:-f选项将在文件增长时输出附加数据,如在Unix中一样。

17、-count 统计与指定文件模式匹配的路径下的目录,文件和字节数

Usage: hdfs dfs -count [-q] [-h] < paths>

18、-getmerge 将源目录和目标文件作为输入,并将src中的文件连接到目标本地文件(把两个文件的内容合并起来)

Usage:hdfs dfs -getmerge < src> < localdst> [addnl]

注:合并后的文件位于当前目录,不在hdfs中,是本地文件

19、-grep 从hdfs上过滤包含某个字符的行内容

Usage:hdfs dfs -cat < srcpath> | grep 过滤字段

20、-moveFromLocal 从本地剪切粘贴到 HDFS 指定目录

dfs -moveFromLocal <src> <dst>

21、-appendToFile 追加一个文件到已经存在的文件末尾

hadoop shell官网

相对路径

相对路径就是相对于当前文件的路径。

1、如何表示同级目录的文件

2.py和3.txt在同一个文件夹下, 如果2.py想要调用3.txt,可以在2.py中这样写:

with open(r'3.txt', 'r') as f:
    print(f.read())

2、如何表示上级目录的文件   

1.txt是2.py的上级目录中的文件,如果2.py想要调用1.txt,可以在2.py中这样写:

with open(r'../1.txt', 'r') as f:
    print(f.read())

../ 代表一级上级目录(间隔一个目录) ../../代表二级上级目录(间隔两个目录)

3、如何表示下级目录的文件 2.txt是2.py的下级目录data中的文件,如果2.py想要调用2.txt,可以在2.py中这样写:

with open(r'data/2.txt', 'r') as f:
    print(f.read())

绝对路径

with open('/Users/michael/data/test.jpg', 'rb') as f:
    print(f.read())

参考:

相关文章
|
4月前
|
存储 分布式计算 Hadoop
Hadoop系列HDFS详解
Hadoop系列HDFS详解
41 0
|
14天前
|
分布式计算 Hadoop 测试技术
Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
【4月更文挑战第5天】Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
41 8
|
14天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03+04】【Hadoop集群资源管理器yarn】(图片来源于网络)(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第5天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
42 9
|
15天前
|
分布式计算 Hadoop Shell
Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第4天】Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
28 5
|
18天前
|
存储 分布式计算 Hadoop
【Hadoop】HDFS 读写流程
【4月更文挑战第9天】【Hadoop】HDFS 读写流程
|
1月前
|
分布式计算 Hadoop Linux
HDFS的常用命令
HDFS的常用命令
18 0
|
3月前
|
存储 分布式计算 Hadoop
Hadoop的Secondary NameNode在HDFS中的作用是什么?
Hadoop的Secondary NameNode在HDFS中的作用是什么?
38 0
|
16天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
38 2
|
16天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
18天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
61 1

热门文章

最新文章

相关实验场景

更多