《Hadoop MapReduce实战手册》一2.3 添加一个新的DataNode

简介:

本节书摘来异步社区《Hadoop MapReduce实战手册》一书中的第2章,第2.3节,作者: 【美】Srinath Perera , Thilina Gunarathne 译者: 杨卓荦 责编: 杨海玲,更多章节内容可以访问云栖社区“异步社区”公众号查看。

2.3 添加一个新的DataNode

Hadoop MapReduce实战手册
本节将展示如何在不重启整个集群的情况下将新节点添加到现有的HDFS集群中,以及增加新的节点后,如何强制HDFS重新达到平衡。

准备工作
请按照下列步骤向HDFS集群中添加DataNode节点。

  1. 在新节点上安装Hadoop,并且复制现有的Hadoop集群的配置文件。可以使用rsync从另一个节点复制Hadoop配置。例如:
>rsync -a <master_node_ip>:hadoop-1.0.x/conf $HADOOP_HOME/conf
  1. 确保Hadoop/HDFS集群的主节点可以对新节点进行SSH免密码登录。如果不打算使用bin/*.sh脚本从主节点启动/停止集群,那么可以选择SSH免登录设置。

操作步骤
下面的步骤将展示如何将新的DataNode添加到现有的HDFS集群。

  1. 将新节点的IP或DNS地址添加到主节点的$HADOOP_HOME/conf/slaves文件。
  2. 通过使用以下命令在新添加的从节点上启动DataNode进程。
>bin/hadoop-deamon.sh start datanode

技巧

也可以使用$HADOOP_HOME/bin/start-dfs.sh脚本从主节点启动新加入的从节点的DataNode守护进程。如果要向集群中添加多个新的DataNode,那么这样做会非常有益。

  1. 在新加的从节点上,检查$HADOOP_HOME/logs/hadoop--datanode-.log是否有任何错误信息。

前面的步骤既适用于添加新节点,又适用于重新加入的因崩溃而重新启动的节点。

更多参考
同样,你也可以添加一个新的节点到Hadoop MapReduce集群。

  1. 要在新节点上启动TaskTracker必须使用以下命令:
>bin/hadoop-deamon.sh start tasktracker
  1. 在新加的从节点上,检查$HADOOP_HOME/logs/hadoop--tasktracker-.log是否有任何错误信息。

HDFS再平衡
当您添加新节点时,HDFS不会自动重新平衡。然而,HDFS提供了一个手动调用的重新平衡(reblancer)工具。这个工具将整个集群中的数据块分布调整到一个可人工配置的百分比阈值。如果在其他现有的节点上有空间存储问题,再平衡将是非常有益的。

  1. 执行以下命令。可选参数-threshold指定了磁盘容量的余量百分比,用来判定一个节点的利用率是过低还是过高。一个利用不足的数据节点其利用率低`于平均利用率−阈值。过度利用的数据节点其利用率高于平均利用率+阈值。该参数设置的越小,整个集群越平衡,但会花费更多的时间进行再平衡操作。默认阈值为10%。
>bin/start-balancer.sh –threshold 15
  1. 再平衡操作可以通过执行bin/stop-balancer.sh命令手动停止。
  2. 再平衡操作的日志信息存储在$HADOOP_HOME/logs/hadoop--balancer.out文件中。
相关文章
|
6月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
147 2
|
4月前
|
数据采集 分布式计算 Hadoop
使用Hadoop MapReduce进行大规模数据爬取
使用Hadoop MapReduce进行大规模数据爬取
|
6月前
|
分布式计算 资源调度 Hadoop
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
187 3
|
6月前
|
分布式计算 资源调度 数据可视化
Hadoop-06-Hadoop集群 历史服务器配置 超详细 执行任务记录 JobHistoryServer MapReduce执行记录 日志聚合结果可视化查看
Hadoop-06-Hadoop集群 历史服务器配置 超详细 执行任务记录 JobHistoryServer MapReduce执行记录 日志聚合结果可视化查看
100 1
|
6月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
204 0
|
6月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
89 0
|
6月前
|
SQL 分布式计算 关系型数据库
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
132 0
|
1月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
167 79
|
6月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
331 6
|
4月前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
180 4

相关实验场景

更多
下一篇
oss创建bucket