【经验分享】用Linux脚本管理虚拟机下的大数据服务

简介: 【经验分享】用Linux脚本管理虚拟机下的大数据服务

用Linux脚本管理虚拟机中的大数据组件服务

启闭服务脚本

#!/bin/bash
if [ "$1" == "start" ];then
        # 自定义启动服务函数,传入两个字符串参数:参数1为启动命令,参数2为启动方式
    function startService(){
                # 定义两个局部遍历依次接收用户传入的两个参数
                # service 为启动命令
                local service=$1
                # exeType 为启动方式(daemon:后台启动(用于那些会占用窗口的服务),非daemon表示正常启动)
                local exeType=$2
                if [ "$exeType" == "daemon" ];then
                        # 后台启动
                        nohup $service 1>/dev/null 2>&1 &
                else
                        # 正常启动
                        $service 1>/dev/null 2>&1
                fi
                # 判断执行启动脚本后的状态
                if [ $? -ne 0 ];then
                        # 因为服务按从上到下有依赖关系,所以任何一个脚本执行出错,将退出整个脚本,所以选择exit而非return
                        # 函数按通用规则 return 0:正常,非0:表示异常;若函数中return缺省,则默认返回最后一条命名的状态即改命令执行后的$?
                        echo "ERROR : FAIL TO EXECUTE $service IN MODE OF $exeType ... EXIT ..."
                        # 退出脚本
                        exit 1
                else
                        # 成功则正常输出提示结果
                        echo "INFO : SUCCESS TO EXECUTE $service IN MODE OF $exeType"
                fi
    }

        # 依次按服务依赖顺序调用启动服务函数,并为每次调用传入启动命令和启动方式
        # 启动 hadoop hdfs
    startService "start-dfs.sh" "non-daemon"
        # 启动 hadoop yarn
    startService "start-yarn.sh" "non-daemon"
                # 启动 ZooKeeper
        startService "zkServer.sh start" "non-daemon"
                # 启动 HBase
        startService "start-hbase.sh" "non-daemon"
        # 启动 hadoop job history server
    #startService "mapred --daemon start historyserver" "self-daemon"
        # 启动 hive metastore
    #startService "hive --service metastore" "daemon"
        # 启动 hive server2(供idea,zeppelin等客户端通过jdbc远程连接使用)
    #startService "hive --service hiveserver2" "daemon"
        # 启动 zeppelin
    #startService "zeppelin-daemon.sh start" "non-daemon"
                # 启动 spark
        #startService "/opt/software/spark-3.1.2/sbin/start-all.sh" "non-daemon"
elif [ "$1" == "stop" ];then
        # 自定义启动服务函数,传入两个字符串参数:参数1为关闭命令,参数2为关闭方式
    function stopService(){
                # 服务名称或关闭命令
                local service=$1
                # 关闭方式(command:命令关闭,pid:根据服务查找进程编号(pid)在借助kill命令关闭)
                local exeType=$2
                if [ "$exeType" == "command" ];then
                        # 直接执行参数一命令关闭服务
                        $service 1>/dev/null 2>&1
                        # 根据关闭命令执行的状态展示结果
                        if [ $? -eq  0 ];then
                                        echo "INFO : SUCCESS TO EXECUTE $service"
                        else
                                        echo "ERROR : FAIL TO EXECUTE $service"
                        fi
                else
                        # 根据参数一传入的服务名称查看进程编号(pid)
                        local pid=$(jps -ml|grep $service|awk '{print $1}')
                        if [ "$pid" ];then
                                # 如果进程编号存在,则直接强制 kill
                                kill -9 $pid
                                # 根据kill的状态展示结果
                                if [ $? -eq  0 ];then
                                                        echo "INFO : SUCCESS TO KILL $service WITH PID $pid"
                                        else
                                                        echo "ERROR : FAIL TO KILL $service WITH PID $pid"
                                        fi
                        else
                                echo "INFO : NO SERVICE EXIST WITH NAME OF $service"
                        fi
                fi
    }

        # 根据服务的依赖关系,逆向逐个关闭服务
                # 首先关闭 spark
        # stopService "/opt/software/spark-3.1.2/sbin/stop-all.sh" "command"
        # 首先关闭 zeppelin
    stopService "zeppelin-daemon.sh stop" "command"
        # 再关闭可能存在的 beeline 客户端
    stopService "BeeLine" "pid"
        # 然后关闭可能存在的 hive 客户端
    stopService "CliDriver" "pid"
        # 确定无任何连接指向 hive 后,先关闭 hive server2
    stopService "HiveServer2" "pid"
        # 再关闭 hive metastore
    stopService "HiveMetaStore" "pid"
                # 再关闭 HBase
        stopService "stop-hbase.sh" "command"
                # 再关闭 ZooKeeper
        stopService "zkServer.sh stop" "command"
                # 然后关闭JobHistoryServer
    stopService "JobHistoryServer" "pid"
        # 最后关闭 yarn 和 hdfs
    stopService "stop-yarn.sh" "command"
    stopService "stop-dfs.sh" "command"
else
        # 附带查一下java进程
    jps -ml
fi

脚本解读及其使用方法

1.传参与脚本分支
脚本通过检查第一个参数来决定执行哪种操作。
如果参数是"start",启动服务。
如果参数是"stop",停止服务。
如果参数不是"start"或"stop",则默认执行jps -ml来显示Java进程。
启动和停止服务的分支采用的都是函数+调用的基本结构
涉及的服务有(可自行添加):

  • Hadoop
    • Hadoop HDFS
    • Hadoop YARN
    • Hadoop JobHistoryServer
  • Hive
    • HiveMetaStore
    • HiveServer2
  • ZooKeeper
  • HBase
  • spark
  • Zeppelin
    ...

2.启动服务(start分支)
定义了一个函数startService用于启动服务,它接受两个参数:要执行的启动命令和启动方式("daemon"和"non-daemon")

3.停止服务(stop分支)
定义了一个函数stopService用于停止服务,它接受两个参数:服务名称和关闭方式(通过命令"command"或查找并杀死进程"pid")

4.如何将新增服务纳入开启和关闭列表?

  • 确定新增服务的开启(daemon?non-daemon?)和关闭(command?pid?)方式
  • 查找新增服务的理想开启和关闭顺序(注意开启和关闭的顺序应该相反)
  • 若新增服务存在着客户端,应该补充可能的客户端关闭命令。

5.启动前的准备

  • 需要先确定该服务的关联服务是什么,将该服务及其关联服务同时开启(HBase的关联服务是Hadoop、ZooKeeper)
  • 只需注释掉无关服务的开启指令,无需注释关闭服务的指令
目录
相关文章
|
5月前
|
Linux 网络安全 Docker
盘古栈云,创建带ssh服务的linux容器
创建带ssh服务的linux容器
388 146
|
7月前
|
存储 数据采集 搜索推荐
Java 大视界 -- Java 大数据在智慧文旅旅游景区游客情感分析与服务改进中的应用实践(226)
本篇文章探讨了 Java 大数据在智慧文旅景区中的创新应用,重点分析了如何通过数据采集、情感分析与可视化等技术,挖掘游客情感需求,进而优化景区服务。文章结合实际案例,展示了 Java 在数据处理与智能推荐等方面的强大能力,为文旅行业的智慧化升级提供了可行路径。
Java 大视界 -- Java 大数据在智慧文旅旅游景区游客情感分析与服务改进中的应用实践(226)
|
6月前
|
缓存 安全 Linux
六、Linux核心服务与包管理
在没有网络的情况下,使用系统安装光盘是获取RPM包的常用方法。场景二:配置本地文件镜像源 (使用系统安装光盘/ISO)(检查RPM包的GPG签名以保证安全) 或。YUM/DNF包管理工具 (yum/dnf)(此处可以放置您为本主题制作的思维导图)处理依赖问题的危险选项 (应极力避免)(覆盖文件、替换已安装包)。(list) 则是列出文件。(query file) 是。(假设系统安装光盘已挂载到。信息 (verbose)。(upgrade) 选项。(all) 已安装的包。(package) 选项
505 11
|
8月前
|
分布式计算 搜索推荐 算法
Java 大视界 -- Java 大数据在智慧养老服务需求分析与个性化服务匹配中的应用(186)
本篇文章探讨了Java大数据技术在智慧养老服务需求分析与个性化服务匹配中的应用。通过整合老年人健康数据与行为数据,结合机器学习与推荐算法,实现对老年人健康风险的预测及个性化服务推荐,提升养老服务的智能化与精准化水平,助力智慧养老高质量发展。
|
8月前
|
SQL 缓存 监控
大数据之路:阿里巴巴大数据实践——实时技术与数据服务
实时技术通过流式架构实现数据的实时采集、处理与存储,支持高并发、低延迟的数据服务。架构涵盖数据分层、多流关联,结合Flink、Kafka等技术实现高效流计算。数据服务提供统一接口,支持SQL查询、数据推送与定时任务,保障数据实时性与可靠性。
868 0
|
11月前
|
Linux Shell
在Linux、CentOS7中设置shell脚本开机自启动服务
以上就是在CentOS 7中设置shell脚本开机自启动服务的全部步骤。希望这个指南能帮助你更好地管理你的Linux系统。
1404 25
|
Linux iOS开发 MacOS
Gitea Enterprise 23.4.0 (Linux, macOS, Windows) - 本地部署的企业级 Git 服务
Gitea Enterprise 23.4.0 (Linux, macOS, Windows) - 本地部署的企业级 Git 服务
373 0
Gitea Enterprise 23.4.0 (Linux, macOS, Windows) - 本地部署的企业级 Git 服务
|
监控 Linux
Linux systemd 服务启动失败Main process exited, code=exited, status=203/EXEC
通过以上步骤,可以有效解决 systemd 服务启动失败并报错 `Main process exited, code=exited, status=203/EXEC` 的问题。关键在于仔细检查单元文件配置、验证可执行文件的有效性,并通过日志分析具体错误原因。确保可执行文件路径正确、文件具有执行权限,并且可以独立运行,将有助于快速定位和解决问题。
5881 7

相关产品

  • 云原生大数据计算服务 MaxCompute