文章目录
前言
本文用于解决 Apache Hadoop 启动时 DataNode 启动异常的问题,但是请注意这会删除 HDFS 中原有的所有数据,如果原有的数据很重要请不要这样做。
一、启动 HDFS 并显示当前所有 Java 进程
依次在 Hadoop 安装目录下执行以下命令启动 HDFS 并显示当前所有 Java 进程:
./bin/hdfs namenode -format #格式化NameNode ./sbin/start-dfs.sh #启动HDFS jps #显示当前所有的Java进程
二、DataNode 启动异常场景描述
当 DataNode 启动异常时或者没有启动时我们调用 jps 命令不会显示其进程,具体如下图所示:
三、DataNode 启动异常解决方式
再次提醒:删除 tmp 文件,会删除 HDFS 中原有的所有数据。
依次执行如下命令:
./sbin/stop-dfs.sh #关闭HDFS rm -r ./tmp #删除tmp文件,注意这会删除HDFS中原有的所有数据,tmp文件目录根据本地目录寻找 ./bin/hdfs namenode -format #重新格式化NameNode ./sbin/start-dfs.sh #重启HDFS jps #显示当前所有的Java进程
成功启动后我们可以看到 DataNode 的进程,具体如下图所示:
四、Web 界面检查 Hadoop 信息
同时,可以通过 Linux 本地浏览器访问 Web 界面(http://localhost:9870)来查看 Hadoop 的信息,具体如下图所示:
总结
本文解决了 Apache Hadoop 启动时 DataNode 没有启动的问题,但是请注意这会删除 HDFS 中原有的所有数据,如果原有的数据很重要请不要这样做。其他的方法暂时还没有发现,这个方法百试百灵,有其他的方法的小伙伴欢迎补充!
我是白鹿,一个不懈奋斗的程序猿。望本文能对你有所裨益,欢迎大家的一键三连!若有其他问题、建议或者补充可以留言在文章下方,感谢大家的支持!