在当今数字化时代,运维工作的重要性日益凸显。面对复杂多变的IT环境,高效的自动化工具和脚本成为每一位运维人员提升工作效率、保障系统稳定的关键利器。为了助力广大运维同行在日常工作中更加得心应手,我特此精心整理了一份实用的Shell脚本合集,旨在为大家提供一份“运维人的福利”,以期在繁琐的任务处理与系统管理中,助您一臂之力。
这份脚本集合凝聚了我个人在实际运维工作中积累的经验与智慧,涵盖了诸如服务器监控、故障排查、备份恢复、性能调优、自动化部署等诸多核心场景。每一行代码都经过实战打磨,力求简洁高效,易读易用,旨在适应各种复杂的运维环境,满足不同层次运维需求。无论您是初入运维领域的新人,还是经验丰富的资深专家,都能从中找到适合自己的工具,让繁杂的运维工作化繁为简,事半功倍。
在这里,我诚挚地邀请各位运维同仁随意拿取、自由分享这份Shell脚本资源。它们不仅是您日常工作的得力助手,更是交流学习、提升技能的良好素材。让我们共同携手,借助科技的力量,驱动运维工作的智能化、自动化进程,为构建稳定、高效的信息系统保驾护航。
1.统计 /proc 目类下 Linux 进程相关数量信息,输出总进程数,running 进程数,stoped 进程数,sleeing 进程数,zombie 进程数。输出所有 zombie 的进程到 zombie.txt 杀死所有 zombie 进程。
#!/bin/bash
ALL_PROCESS=$(ls /proc/ | egrep '[0-9]+')
running_count=0
stoped_count=0
sleeping_count=0
zombie_count=0
for pid in ${ALL_PROCESS[*]}
do
test -f /proc/pid/status && state=pid/status && state=pid/status && state=(egrep "State" /proc/$pid/status | awk
'{print $2}')
case "$state" in
R)
running_count=$((running_count+1))
;;
T)
stoped_count=$((stoped_count+1))
;;
S)
sleeping_count=$((sleeping_count+1))
;;
Z)
zombie_count=$((zombie_count+1))
echo "$pid" >>zombie.txt
kill -9 "$pid"
;;
esac
done
echo -e "total:
$((running_count+stoped_count+sleeping_count+zombie_count))\nrunning:
runningcount\nstoped:running_count\nstoped: stoped_count\nsleeping: $sleeping_count\nzombie:
$zombie_count"
2.把当前目录(包含子目录)下所有后缀为 ".sh" 的文件后缀变更为 ".shell",之后删除每个文件的第二行。
#!/bin/bash
ALL_SH_FILE=$(find . -type f -name "*.sh")
for file in ${ALL_SH_FILE[*]}
do
filename=(echo(echo file | awk -F'.sh' '{print $1}')
new_filename="${filename}.shell"
mv "file""file" "new_filename"
sed -i '2d' "$new_filename"
done
3.判断目录 /tmp/jstack 是否存在,不存在则新建一个目录,若存在则删除目录下所有内容。每隔 1 小时打印 inceptor server 的 jstack 信息,并以 jstack_${当前时间} 命名文件,每当目录下超过10 个文件后,删除最旧的文件。
#!/bin/bash
DIRPATH='/tmp/jstack'
CURRENT_TIME=$(date +'%F'-'%H:%M:%S')
if [ ! -d "$DIRPATH" ];then
mkdir "$DIRPATH"
else
rm -rf "$DIRPATH"/*
fi
cd "$DIRPATH"
while true
do
sleep 3600
# 这里需要将inceptor改后自己的java进程名称
pid=(ps -ef | grep 'inceptor' | grep -v grep | awk '{print(ps -ef | grep 'inceptor' | grep -v grep | awk '{print 2}')
jstack pid >> "jstack_pid >> "jstack_{CURRENT_TIME}"
dir_count=$(ls | wc -l)
if [ "$dir_count" -gt 10 ];then
rm -f $(ls -tr | head -1)
fi
done
4.从 test.log 中截取当天的所有 gc 信息日志,并统计 gc时间的平均值和时长最长的时间。
#!/bin/bash
awk '{print 2}' hive-server2.log | tr -d ':' | awk '{sum+=2}' hive-server2.log | tr -d ':' | awk '{sum+=1} END {print "avg:
", sum/NR}' >>capture_hive_log.log
awk '{print 2}' hive-server2.log | tr -d ':' | awk '{max = 0} {if (2}' hive-server2.log | tr -d ':' | awk '{max = 0} {if (1+0 > max+0)
max=$1} END {print "Max: ", max}'>>capture_hive_log.log
5.查找 80 端口请求数最高的前 20 个 IP 地址,判断中间最小的请求数是否大于 500,如大于 500,则输出系统活动情况报告到 alert.txt,如果没有,则在 600s 后重试,直到有输出为止。
#!/bin/bash
state="true"
while $state
do
SMALL_REQUESTS=(netstat -ant | awk -F'[ :]+' '/:22/{count[(netstat -ant | awk -F'[ :]+' '/:22/{count[4]++} END {for(ip
in count) print count[ip]}' | sort -n | head -20 | head -1)
if [ "$SMALL_REQUESTS" -gt 500 ];then
sar -A > alert.txt
state="false"
else
sleep 6
continue
fi
done
6.将当前目录下大于 10K 的文件转移到 /tmp 目录,再按照文件大小顺序,从大到小输出文件名。
#!/bin/bash
# 目标目录
DIRPATH='/tmp'
# 查看目录
FILEPATH='.'
find "FILEPATH"−size+10k−typef|xargs−imv"FILEPATH" -size +10k -type f | xargs -i mv {} "DIRPATH"
ls -lS "DIRPATH" | awk '{if(NR>1) printDIRPATH" | awk '{if(NR>1) print NF}'
如果想上手操作练代码的同学们可以通过阿里云ecs服务器免费试用参与!
入口:新老同学免费试用