Hadoop入门基础(五):Hadoop 常用 Shell 命令一网打尽,提升你的大数据技能!

简介: Hadoop入门基础(五):Hadoop 常用 Shell 命令一网打尽,提升你的大数据技能!

1. Hadoop 基本命令

1.1 查看版本信息

hadoop version

用于检查 Hadoop 的版本信息以及编译信息。

1.2 启动和停止 Hadoop 集群

start-dfs.sh
start-yarn.sh
stop-dfs.sh
stop-yarn.sh

start-dfs.shstop-dfs.sh 分别用于启动和停止 HDFS,而 start-yarn.shstop-yarn.sh 用于管理 YARN 服务。

1.3 格式化 HDFS

hdfs namenode -format

首次安装 Hadoop 后,需要格式化 HDFS。这会清除所有数据,因此仅在初次设置或重置集群时执行。

2. HDFS 相关命令

2.1 HDFS 目录与文件管理

  • 列出目录内容:
hdfs dfs -ls /path/to/directory
  • 创建新目录:
hdfs dfs -mkdir /path/to/new_directory
  • 上传文件到 HDFS:
hdfs dfs -put /local/path/to/file /hdfs/path/to/destination
  • 从 HDFS 下载文件:
hdfs dfs -get /hdfs/path/to/file /local/path/to/destination
  • 删除文件或目录:
hdfs dfs -rm /hdfs/path/to/file
hdfs dfs -rm -r /hdfs/path/to/directory

2.2 查看文件内容

hdfs dfs -cat /hdfs/path/to/file

用于查看HDFS中文件的内容。

2.3 文件系统检查

hdfs fsck /

检查 HDFS 的健康状况,显示文件、块和副本的分布信息。

3. MapReduce 相关命令

3.1 运行 MapReduce 示例程序

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount /input /output

运行 Hadoop 提供的示例程序,这里以 wordcount 为例。

3.2 查看 MapReduce 作业状态

hadoop job -status job_id

用于查询作业的当前状态。

4. YARN 相关命令

4.1 列出所有运行中的应用

yarn application -list

列出所有当前正在 YARN 上运行的应用程序。

4.2 杀死 YARN 应用

yarn application -kill application_id

停止指定的 YARN 应用程序。

4.3 查看应用程序日志

yarn logs -applicationId application_id

获取特定应用程序的日志信息。

5. 其他常用命令

5.1 查看 Hadoop 集群报告

hdfs dfsadmin -report

显示 HDFS 集群的整体健康状况和配置状态。

5.2 安全模式操作

  • 进入安全模式:
hdfs dfsadmin -safemode enter
  • 离开安全模式:
hdfs dfsadmin -safemode leave
  • 查看安全模式状态:
hdfs dfsadmin -safemode get

总结

以上命令涵盖了日常使用 Hadoop 时最常见的操作,掌握这些命令可以帮助你更轻松地管理和维护 Hadoop 集群。通过熟练使用这些命令,你将能够更加自信地应对各种 Hadoop 相关的任务。

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
12月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
598 79
|
网络协议 Shell 网络安全
面试官想听的不仅是命令——如何结构化回答“容器无Shell时如何测试外网”?
“说说看,如果一个Pod的容器没有Shell,如何测试它能否访问外网?”
面试官想听的不仅是命令——如何结构化回答“容器无Shell时如何测试外网”?
|
11月前
|
存储 Unix Shell
Shell 输出命令完全指南:echo 与 printf 的深度剖析
本文深入解析了 Shell 编程中 `echo` 和 `printf` 两个核心输出命令的用法与区别。`echo` 简单易用,适合基础输出;`printf` 功能强大,支持复杂格式化。文章从语法、转义序列、高级技巧到实际应用场景(如日志记录、进度显示)逐一讲解,并对比两者的性能与适用场景,帮助开发者根据需求灵活选择。最后通过进阶技巧和常见问题解答,进一步提升对两者的掌握程度。
603 1
|
运维 Shell 数据库
Python执行Shell命令并获取结果:深入解析与实战
通过以上内容,开发者可以在实际项目中灵活应用Python执行Shell命令,实现各种自动化任务,提高开发和运维效率。
422 20
|
安全 Shell 数据处理
使用Python执行Shell命令并获取结果
在实际应用中,可以根据需要选择适当的参数和方法来执行Shell命令,并处理可能出现的各种情况。无论是系统管理、自动化任务还是数据处理,掌握这些技巧都将极大地提高工作效率。
537 12
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
778 4
|
人工智能 Shell iOS开发
AI Shell:在命令行里“对话” AI ,微软推出将 AI 助手引入命令行的 CLI 工具,打造对话式交互命令行
AI Shell 是一款强大的 CLI 工具,将人工智能直接集成到命令行中,帮助用户提高生产力。AI Shell 支持多种 AI 模型和助手,通过多代理框架提供丰富的功能和灵活的使用模式。
2182 7
|
Java Shell Windows
java Runtime.exec()执行shell/cmd命令:常见的几种陷阱与一种完善实现
java Runtime.exec()执行shell/cmd命令:常见的几种陷阱与一种完善实现
455 1
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
644 2
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
548 1