E-MapReduce集群启停HDFS/YARN服务

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 该文章意在帮助大家,在E-MapReduce环境中停止启动yarn,hdfs服务。

启停HDFS服务

HDFS服务启停,下面脚本需要在master节点运行,切需要在hdfs账号下。su hdfs

启动HDFS

执行下面脚本

#!/bin/bash

worker_cnt=`cat /etc/hosts | grep emr-worker | grep cluster | wc -l`
master_cnt=1
ha_flag=`grep -r high_availability_enable=true /usr/local/emr/emr-bin/script/`
nn_file=/usr/local/emr/emr-bin/script/hdfs/pre_start.sh
dn_file=/usr/local/emr/emr-bin/script/hdfs/start_up.sh
if [[ ! -z $ha_flag ]];then
  master_cnt=2
  nn_file=/usr/local/emr/emr-bin/script/ha_hdfs/pre_start.sh
  dn_file=/usr/local/emr/emr-bin/script/ha_hdfs/start_up.sh
fi

nn_cmd="export app_yarn_home=/usr/lib/hadoop-current;"\ `cat $nn_file | grep -v 'echo' | grep 'start namenode' | head -n 1 | awk -F '"' '{print $2;}'`
dn_cmd="export app_yarn_home=/usr/lib/hadoop-current;"\ `cat $dn_file | grep -v 'echo' | grep 'start datanode' | head -n 1 | awk -F '"' '{print $2;}'`

#start namenode
for ((i=1; i<=$master_cnt; i++));
do
    echo master--$i
    echo "$nn_cmd"
    if [ $i -eq 2 ];then
        ssh emr-header-$i "/usr/lib/hadoop-current/bin/hdfs namenode -bootstrapStandby <<< N"
    fi
    ssh emr-header-$i "$nn_cmd"
done

# start datanode
for ((i=1; i<=$worker_cnt; i++));
do
    echo "$dn_cmd"
    ssh emr-worker-$i "$dn_cmd"
done

停止HDFS服务

执行下面脚本

#!/bin/bash

worker_cnt=`cat /etc/hosts | grep emr-worker | grep cluster | wc -l`
master_cnt=1
ha_flag=`grep -r high_availability_enable=true /usr/local/emr/emr-bin/script/`
if [[ ! -z $ha_flag ]];then
  master_cnt=2
fi

nn_cmd='/usr/lib/hadoop-current/sbin/hadoop-daemon.sh stop namenode'
dn_cmd='/usr/lib/hadoop-current/sbin/hadoop-daemon.sh stop datanode'

#stop namenode
for ((i=1; i<=$master_cnt; i++));
do
    ssh emr-header-$i "$nn_cmd"
done

# stop datanode
for ((i=1; i<=$worker_cnt; i++));
do
    ssh emr-worker-$i "$dn_cmd"
done

启停YARN服务

启停YARN服务,下面的脚本需要在master节点运行,且需要在hadoop账号下,su hadoop。

启动YARN服务

执行下面脚本

#!/bin/bash

worker_cnt=`cat /etc/hosts | grep emr-worker | grep cluster | wc -l`
master_cnt=1
ha_flag=`grep -r high_availability_enable=true /usr/local/emr/emr-bin/script/`
yarn_file=/usr/local/emr/emr-bin/script/yarn/start_up.sh
if [[ ! -z $ha_flag ]];then
  master_cnt=2
  yarn_file=/usr/local/emr/emr-bin/script/ha_yarn/start_up.sh
fi

rm_cmd="export app_yarn_home=/usr/lib/hadoop-current;"\ `cat $yarn_file | grep -v 'echo' | grep  'start resourcemanager' | head -n 1 | awk -F '"' '{print $2;}'`
nm_cmd="export app_yarn_home=/usr/lib/hadoop-current;"\ `cat $yarn_file | grep -v 'echo' | grep  'start nodemanager' | head -n 1 | awk -F '"' '{print $2;}'`

#start resourcemanager
for ((i=1; i<=$master_cnt; i++));
do
    ssh emr-header-$i "$rm_cmd"
done

# start nodemanager
for ((i=1; i<=$worker_cnt; i++));
do
    ssh emr-worker-$i "$nm_cmd"
done

停止YARN服务

执行下面脚本

#!/bin/bash

worker_cnt=`cat /etc/hosts | grep emr-worker | grep cluster | wc -l`
master_cnt=1
ha_flag=`grep -r high_availability_enable=true /usr/local/emr/emr-bin/script/`
if [[ ! -z $ha_flag ]];then
  master_cnt=2
fi

nn_cmd='/usr/lib/hadoop-current/sbin/hadoop-daemon.sh stop namenode'
dn_cmd='/usr/lib/hadoop-current/sbin/hadoop-daemon.sh stop datanode'

#stop resourcemanager
for ((i=1; i<=$master_cnt; i++));
do
    ssh emr-header-$i "$nn_cmd"
done

# stop nodemanager
for ((i=1; i<=$worker_cnt; i++));
do
    ssh emr-worker-$i "$dn_cmd"
done
相关文章
|
3月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
207 6
|
3月前
|
消息中间件 分布式计算 关系型数据库
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
69 0
|
3月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
141 0
|
3月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
60 0
|
8月前
|
分布式计算 Hadoop
Hadoop系列 mapreduce 原理分析
Hadoop系列 mapreduce 原理分析
89 1
|
3月前
|
分布式计算 资源调度 Hadoop
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
135 3
|
7月前
|
分布式计算 Hadoop Java
Hadoop MapReduce编程
该教程指导编写Hadoop MapReduce程序处理天气数据。任务包括计算每个城市ID的最高、最低气温、气温出现次数和平均气温。在读取数据时需忽略表头,且数据应为整数。教程中提供了环境变量设置、Java编译、jar包创建及MapReduce执行的步骤说明,但假设读者已具备基础操作技能。此外,还提到一个扩展练习,通过分区功能将具有相同尾数的数字分组到不同文件。
74 1
|
7月前
|
数据采集 SQL 分布式计算
|
8月前
|
分布式计算 Hadoop Java
Hadoop MapReduce 调优参数
对于 Hadoop v3.1.3,针对三台4核4G服务器的MapReduce调优参数包括:`mapreduce.reduce.shuffle.parallelcopies`设为10以加速Shuffle,`mapreduce.reduce.shuffle.input.buffer.percent`和`mapreduce.reduce.shuffle.merge.percent`分别设为0.8以减少磁盘IO。
84 1
|
8月前
|
分布式计算 并行计算 搜索推荐
Hadoop MapReduce计算框架
【5月更文挑战第10天】HadoopMapReduce计算框架
66 3

相关实验场景

更多