《Hadoop MapReduce实战手册》一1.7 HDFS的基本命令行文件操作

简介:

本节书摘来异步社区《Hadoop MapReduce实战手册》一书中的第1章,第1.7节,作者: 【美】Srinath Perera , Thilina Gunarathne 译者: 杨卓荦 责编: 杨海玲,更多章节内容可以访问云栖社区“异步社区”公众号查看。

1.7 HDFS的基本命令行文件操作

Hadoop MapReduce实战手册
HDFS是一个分布式的文件系统,就像一个Unix文件系统一样,它允许用户使用shell命令操纵文件系统。本节将说明如何使用HDFS的基本命令行来执行这些操作。

值得注意的是,每一条HDFS命令都有一个与之一一对应的Unix命令。例如,下面的命令:

>hadoopdfs –cat /data/foo.txt

该命令用于读取/data/foo.txt文件,并把它打印到屏幕上,就像Unix系统的cat命令一样。

准备工作
通过以下安装HDFS的攻略,启动HDFS服务器。

操作步骤

  1. 将工作目录跳转到HADOOP_HOME。
  2. 运行下面的命令来新建一个名为/test的目录:
>bin/hadoopdfs -mkdir /test
  1. HDFS文件系统的根目录为/,就像Unix文件系统的根目录一样。运行以下命令可以列出HDFS根目录的内容:
>bin/hadoopdfs -ls /
  1. 运行下面的命令将本地readme文件复制到/test目录下:
>bin/hadoopdfs -put README.txt /test
  1. 运行下面的命令列出/test目录的内容:
>bin/hadoopdfs -ls /test

Found 1 items
-rw-r--r-- 1 srinathsupergroup   1366 2012-04-10 07:06 /
test/README.txt
  1. 运行以下命令将/test/README.txt文件复制到本地目录:
>bin/hadoopdfs -get /test/README.txt README-NEW.txt

工作原理
当命令发出后,客户端将代表用户与HDFS NameNode通信,并执行相关操作。通常,我们使用以/开头的路径来引用文件或文件夹,如/data,客户端将根据HADOOP_HOME/conf目录中的配置项来选择NameNode。

然而,如果需要的话,我们可以使用一个完全限定路径来强制客户端跟一个特定的NameNode进行通信。例如,hdfs://bar.foo.com:9000/data,会要求客户端与运行在bar.foo.com主机9000端口上的NameNode进行通信。

更多参考
HDFS支持大多数的Unix命令,如cp、mv和chown,它们与上面讨论的命令一样,遵循相同的模式。文档http://hadoop.apache.org/docs/r1.0.3/file_system_shell.html提供了所有支持命令的列表。我们将在本书中通篇使用这些命令。

相关文章
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
162 6
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
66 2
|
1月前
|
SQL 分布式计算 监控
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
62 3
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
47 2
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
87 0
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
40 0
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
48 0
|
23天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
82 2
|
24天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
63 1
|
1月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
61 1

相关实验场景

更多
下一篇
无影云桌面