Hadoop原理与技术——Linus命令行基本操作

简介: Hadoop原理与技术——Linus命令行基本操作

点击链接查看文档

在这里插入图片描述

一、实验目的

Hadoop运行在Linux系统上,因此,需要学习实践一些常用的Linux命令。本实验旨在熟悉常用的Linux操作,为顺利开展后续其他实验奠定基础。

二、实验环境

Windows 10
VMware Workstation Pro虚拟机
Hadoop环境
Jdk1.8

三、实验内容

1:Linus常见命令:
(1)创建目录:mkdir 文件夹名

(2)建多层次目录:mkdir -p 文件夹名/文件夹名/文件夹名

(3)同层次建多个文件夹:mkdir 文件夹名/文件夹名 文件夹名/文件夹名 文件夹名/文件夹名

(4)切换目录:cd 文件夹名

(5)显示当前目录路径:pwd

(6)显示当前目录下的文件或目录:ls

(7)创建空文件:touch 文件夹名

(8)编辑文件内容:vi 文件名

(9)容许编辑文件内容:i

(10)保存并退出::wq

(11)查看文件内容:cat 文件名

(12)删除文件:rm 文件名字

(13)返回上一层目录:cd..

(14)返回根目录:cd

(15)删除文件夹:rm -rf 文件夹名

(16)显示文件系统使用情况:du 文件夹名 或者 du 文件夹名/文件名

(17)在当前目录下查找今天之内有改动的文件:find 文件夹名 -mtime 0

(18)在目录中找出所有者为hadoop的文件:find 文件夹名 -user hadoop

(19)在某文件夹下查找文件夹名(文件名)为某某的文件夹(文件)路径:find 文件夹名 -name 文件夹名(文件名)

(20)查找当前目录中大于12KB的文件,注意c表示byte:find . -size +12k

(21)压缩:tar -jcv -f 压缩后文件名 压缩的文件

(22)查询:tar -jtv -f 压缩包文件名

(23)解压:tar -jxv -f 要解压的文件名 -C 解压后文件放置的文件夹名

(24)显示文件的最后10行:tail 文件名

(25)显示详细的网络状况:netstat -a

(26)显示网络设备信息:ifconfig

2:Linus常见命令运行:

1:创建linusTest目录:mkdir linusTest

在这里插入图片描述在这里插入图片描述

2:建多层次testA/testB/testC目录:mkdir -p testA/testB/testC

在这里插入图片描述

3:在文件夹testB同层次下建testB1、testB2、testB3文件夹:mkdir testB/testB1 testB/testB2 testB/testB3

在这里插入图片描述

4:切换到linusTest目录:cd linusTest

在这里插入图片描述

5:显示当前目录路径:pwd

在这里插入图片描述

6:显示当前目录下的文件或目录: ls

在这里插入图片描述

7:创建空文件test1.txt:touch test1.txt

在这里插入图片描述在这里插入图片描述

8:编辑文件内容:vi

在这里插入图片描述

9:容许编辑文件内容:i

在这里插入图片描述

10:保存并退出::wq

在这里插入图片描述

11:查看text1.txt文件内容:cat test1.txt

在这里插入图片描述

12:删除文件text1.txt:rm test1.txt

在这里插入图片描述

13:返回上一层目录:cd..

在这里插入图片描述

14:返回根目录:cd

在这里插入图片描述

15:删除文件夹linusFile1:rm -rf linusFile1

在这里插入图片描述

16:显示文件rg34的使用情况:du rg34

在这里插入图片描述

17:在rg34目录下查找今天之内有改动的文件:find rg34 -mtime 0

在这里插入图片描述

18:在rg34目录中找出所有者为hadoop的文件:find rg34 -user hadoop

在这里插入图片描述

19:在rg34文件夹下查找文件夹名为test1的文件夹路径:find rg34 name test1

在这里插入图片描述

20:查找workspace目录中大于12KB的文件,注意c表示 byte: find . -size +12k

在这里插入图片描述

21:压缩文件test压缩后取名为test.tar.bz2:tar -jcv -f test.tar.bz2 test

在这里插入图片描述

22:查询压缩文件test.tar.bz2:tar -jtv -f test.tar.bz2

在这里插入图片描述

23:解压test.tar.bz2文件解压后放到当前目录test文件夹下:tar -jxv -f test.tar.bz2 -C test

在这里插入图片描述

24:显示rg.txt文件的最后10行:tail rg.txt

在这里插入图片描述

25:显示详细的网络状况:netstat -a

在这里插入图片描述

26:显示网络设备信息:ifconfig

在这里插入图片描述

目录
相关文章
|
4月前
|
分布式计算 Hadoop
Hadoop系列 mapreduce 原理分析
Hadoop系列 mapreduce 原理分析
40 1
|
11天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
4月前
|
消息中间件 分布式计算 大数据
【大数据技术Hadoop+Spark】Flume、Kafka的简介及安装(图文解释 超详细)
【大数据技术Hadoop+Spark】Flume、Kafka的简介及安装(图文解释 超详细)
68 0
|
4月前
|
SQL 存储 大数据
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
75 0
|
4月前
|
SQL 分布式计算 大数据
【大数据技术Hadoop+Spark】Spark SQL、DataFrame、Dataset的讲解及操作演示(图文解释)
【大数据技术Hadoop+Spark】Spark SQL、DataFrame、Dataset的讲解及操作演示(图文解释)
54 0
|
4月前
|
分布式计算 大数据 Scala
【大数据技术Hadoop+Spark】Spark RDD创建、操作及词频统计、倒排索引实战(超详细 附源码)
【大数据技术Hadoop+Spark】Spark RDD创建、操作及词频统计、倒排索引实战(超详细 附源码)
91 1
|
4月前
|
存储 分布式计算 负载均衡
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
59 0
|
4月前
|
存储 分布式计算 Hadoop
【大数据技术Hadoop+Spark】HDFS概念、架构、原理、优缺点讲解(超详细必看)
【大数据技术Hadoop+Spark】HDFS概念、架构、原理、优缺点讲解(超详细必看)
114 0
|
4月前
|
存储 分布式计算 大数据
【大数据技术Hadoop+Spark】Spark RDD设计、运行原理、运行流程、容错机制讲解(图文解释)
【大数据技术Hadoop+Spark】Spark RDD设计、运行原理、运行流程、容错机制讲解(图文解释)
67 0
|
4月前
|
分布式计算 资源调度 大数据
【大数据技术Hadoop+Spark】Spark架构、原理、优势、生态系统等讲解(图文解释)
【大数据技术Hadoop+Spark】Spark架构、原理、优势、生态系统等讲解(图文解释)
168 0

热门文章

最新文章