【经验分享】用Linux脚本管理虚拟机下的大数据服务

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,1000CU*H 3个月
简介: 【经验分享】用Linux脚本管理虚拟机下的大数据服务

用Linux脚本管理虚拟机中的大数据组件服务

启闭服务脚本

#!/bin/bash
if [ "$1" == "start" ];then
        # 自定义启动服务函数,传入两个字符串参数:参数1为启动命令,参数2为启动方式
    function startService(){
                # 定义两个局部遍历依次接收用户传入的两个参数
                # service 为启动命令
                local service=$1
                # exeType 为启动方式(daemon:后台启动(用于那些会占用窗口的服务),非daemon表示正常启动)
                local exeType=$2
                if [ "$exeType" == "daemon" ];then
                        # 后台启动
                        nohup $service 1>/dev/null 2>&1 &
                else
                        # 正常启动
                        $service 1>/dev/null 2>&1
                fi
                # 判断执行启动脚本后的状态
                if [ $? -ne 0 ];then
                        # 因为服务按从上到下有依赖关系,所以任何一个脚本执行出错,将退出整个脚本,所以选择exit而非return
                        # 函数按通用规则 return 0:正常,非0:表示异常;若函数中return缺省,则默认返回最后一条命名的状态即改命令执行后的$?
                        echo "ERROR : FAIL TO EXECUTE $service IN MODE OF $exeType ... EXIT ..."
                        # 退出脚本
                        exit 1
                else
                        # 成功则正常输出提示结果
                        echo "INFO : SUCCESS TO EXECUTE $service IN MODE OF $exeType"
                fi
    }

        # 依次按服务依赖顺序调用启动服务函数,并为每次调用传入启动命令和启动方式
        # 启动 hadoop hdfs
    startService "start-dfs.sh" "non-daemon"
        # 启动 hadoop yarn
    startService "start-yarn.sh" "non-daemon"
                # 启动 ZooKeeper
        startService "zkServer.sh start" "non-daemon"
                # 启动 HBase
        startService "start-hbase.sh" "non-daemon"
        # 启动 hadoop job history server
    #startService "mapred --daemon start historyserver" "self-daemon"
        # 启动 hive metastore
    #startService "hive --service metastore" "daemon"
        # 启动 hive server2(供idea,zeppelin等客户端通过jdbc远程连接使用)
    #startService "hive --service hiveserver2" "daemon"
        # 启动 zeppelin
    #startService "zeppelin-daemon.sh start" "non-daemon"
                # 启动 spark
        #startService "/opt/software/spark-3.1.2/sbin/start-all.sh" "non-daemon"
elif [ "$1" == "stop" ];then
        # 自定义启动服务函数,传入两个字符串参数:参数1为关闭命令,参数2为关闭方式
    function stopService(){
                # 服务名称或关闭命令
                local service=$1
                # 关闭方式(command:命令关闭,pid:根据服务查找进程编号(pid)在借助kill命令关闭)
                local exeType=$2
                if [ "$exeType" == "command" ];then
                        # 直接执行参数一命令关闭服务
                        $service 1>/dev/null 2>&1
                        # 根据关闭命令执行的状态展示结果
                        if [ $? -eq  0 ];then
                                        echo "INFO : SUCCESS TO EXECUTE $service"
                        else
                                        echo "ERROR : FAIL TO EXECUTE $service"
                        fi
                else
                        # 根据参数一传入的服务名称查看进程编号(pid)
                        local pid=$(jps -ml|grep $service|awk '{print $1}')
                        if [ "$pid" ];then
                                # 如果进程编号存在,则直接强制 kill
                                kill -9 $pid
                                # 根据kill的状态展示结果
                                if [ $? -eq  0 ];then
                                                        echo "INFO : SUCCESS TO KILL $service WITH PID $pid"
                                        else
                                                        echo "ERROR : FAIL TO KILL $service WITH PID $pid"
                                        fi
                        else
                                echo "INFO : NO SERVICE EXIST WITH NAME OF $service"
                        fi
                fi
    }

        # 根据服务的依赖关系,逆向逐个关闭服务
                # 首先关闭 spark
        # stopService "/opt/software/spark-3.1.2/sbin/stop-all.sh" "command"
        # 首先关闭 zeppelin
    stopService "zeppelin-daemon.sh stop" "command"
        # 再关闭可能存在的 beeline 客户端
    stopService "BeeLine" "pid"
        # 然后关闭可能存在的 hive 客户端
    stopService "CliDriver" "pid"
        # 确定无任何连接指向 hive 后,先关闭 hive server2
    stopService "HiveServer2" "pid"
        # 再关闭 hive metastore
    stopService "HiveMetaStore" "pid"
                # 再关闭 HBase
        stopService "stop-hbase.sh" "command"
                # 再关闭 ZooKeeper
        stopService "zkServer.sh stop" "command"
                # 然后关闭JobHistoryServer
    stopService "JobHistoryServer" "pid"
        # 最后关闭 yarn 和 hdfs
    stopService "stop-yarn.sh" "command"
    stopService "stop-dfs.sh" "command"
else
        # 附带查一下java进程
    jps -ml
fi

脚本解读及其使用方法

1.传参与脚本分支
脚本通过检查第一个参数来决定执行哪种操作。
如果参数是"start",启动服务。
如果参数是"stop",停止服务。
如果参数不是"start"或"stop",则默认执行jps -ml来显示Java进程。
启动和停止服务的分支采用的都是函数+调用的基本结构
涉及的服务有(可自行添加):

  • Hadoop
    • Hadoop HDFS
    • Hadoop YARN
    • Hadoop JobHistoryServer
  • Hive
    • HiveMetaStore
    • HiveServer2
  • ZooKeeper
  • HBase
  • spark
  • Zeppelin
    ...

2.启动服务(start分支)
定义了一个函数startService用于启动服务,它接受两个参数:要执行的启动命令和启动方式("daemon"和"non-daemon")

3.停止服务(stop分支)
定义了一个函数stopService用于停止服务,它接受两个参数:服务名称和关闭方式(通过命令"command"或查找并杀死进程"pid")

4.如何将新增服务纳入开启和关闭列表?

  • 确定新增服务的开启(daemon?non-daemon?)和关闭(command?pid?)方式
  • 查找新增服务的理想开启和关闭顺序(注意开启和关闭的顺序应该相反)
  • 若新增服务存在着客户端,应该补充可能的客户端关闭命令。

5.启动前的准备

  • 需要先确定该服务的关联服务是什么,将该服务及其关联服务同时开启(HBase的关联服务是Hadoop、ZooKeeper)
  • 只需注释掉无关服务的开启指令,无需注释关闭服务的指令
目录
相关文章
|
1月前
|
Linux 网络安全 Docker
盘古栈云,创建带ssh服务的linux容器
创建带ssh服务的linux容器
269 146
|
2月前
|
缓存 安全 Linux
六、Linux核心服务与包管理
在没有网络的情况下,使用系统安装光盘是获取RPM包的常用方法。场景二:配置本地文件镜像源 (使用系统安装光盘/ISO)(检查RPM包的GPG签名以保证安全) 或。YUM/DNF包管理工具 (yum/dnf)(此处可以放置您为本主题制作的思维导图)处理依赖问题的危险选项 (应极力避免)(覆盖文件、替换已安装包)。(list) 则是列出文件。(query file) 是。(假设系统安装光盘已挂载到。信息 (verbose)。(upgrade) 选项。(all) 已安装的包。(package) 选项
315 12
|
7月前
|
Linux Shell
在Linux、CentOS7中设置shell脚本开机自启动服务
以上就是在CentOS 7中设置shell脚本开机自启动服务的全部步骤。希望这个指南能帮助你更好地管理你的Linux系统。
606 25
|
8月前
|
Linux iOS开发 MacOS
Gitea Enterprise 23.4.0 (Linux, macOS, Windows) - 本地部署的企业级 Git 服务
Gitea Enterprise 23.4.0 (Linux, macOS, Windows) - 本地部署的企业级 Git 服务
237 0
Gitea Enterprise 23.4.0 (Linux, macOS, Windows) - 本地部署的企业级 Git 服务
|
10月前
|
监控 Linux
Linux systemd 服务启动失败Main process exited, code=exited, status=203/EXEC
通过以上步骤,可以有效解决 systemd 服务启动失败并报错 `Main process exited, code=exited, status=203/EXEC` 的问题。关键在于仔细检查单元文件配置、验证可执行文件的有效性,并通过日志分析具体错误原因。确保可执行文件路径正确、文件具有执行权限,并且可以独立运行,将有助于快速定位和解决问题。
4556 7
|
2月前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
182 14
|
4月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
159 4
|
3月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
146 0
|
2月前
|
传感器 人工智能 监控
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
137 14
|
1月前
|
传感器 人工智能 监控
拔俗多模态跨尺度大数据AI分析平台:让复杂数据“开口说话”的智能引擎
在数字化时代,多模态跨尺度大数据AI分析平台应运而生,打破数据孤岛,融合图像、文本、视频等多源信息,贯通微观与宏观尺度,实现智能诊断、预测与决策,广泛应用于医疗、制造、金融等领域,推动AI从“看懂”到“会思考”的跃迁。

相关产品

  • 云原生大数据计算服务 MaxCompute