Shell 脚本中常用命令——Sort、Uniq、Cut、Seq
一、Sort
二、Uniq
1.Sort 和 Uniq 结合使用
三、Cut
四、Seq
1.输出连续整数
2.指定输出格式
3.指定分隔符
4.指定输出数字同宽
5.组合使用
一、Sort
用来给文件内容进行排序。
- 语法:sort [选项] 文件名1 文件名2 ...
- 注意:sort 的排序方式是根据每行第一个字节来进行排序的。
1)以升序的方式输出
[root@localhost ~]# sort 1.txt
2)以倒序的方式输出
[root@localhost ~]# sort -r 1.txt
3)按照数字的方式输出
[root@localhost ~]# sort -n 1.txt
4)去除重复的行再输出
[root@localhost ~]# sort -u 1.txt
二、Uniq
主要就是用来去除文件中连续的重复行。
- 语法:
uniq [选项] 文件名1 文件名2 ...
1)统计每行出现的次数
[root@localhost ~]# uniq -c 1.txt
2)统计出没有出现出重复行的数量
[root@localhost ~]# uniq -u 1.txt
1.Sort 和 Uniq 结合使用
1)统计出 Listen (监听) 和 Estableshed (已连接) 出现的次数
[root@localhost ~]# netstat -ant | awk /^tcp/'{print $NF}' | sort | uniq -c
2)统计相同的网站出现的次数
[root@localhost ~]# vim test.txt http://www.163.com http://www.163.com http://www.163.com http://www.baidu.com http://www.baidu.com http://www.baidu.com http://www.baidu.com http://www.cnblogs.com http://www.qq.com http://www.163.com http://www.baidu.com http://www.baidu.com http://www.qq.com http://www.163.com http://www.baidu.com [root@localhost ~]# awk -F "[/]+" '{print $2}' test.txt | sort | uniq -c
也可以以下面这种方式来统计
[root@localhost ~]# awk -F "[/]+" '{A[$2]++}END{for (B in A){print B,A[B]}}' test.txt
三、Cut
cut 是一个选取命令,就是将一段数据经过分析,取出我们想要的。一般来说,选取信息通常是针对 行 来进行分析的,并不是整篇信息分析的。
输出第 7 字段
四、Seq
- 用于生成一个数到另一个数之间的所有整数。
语法:
- seq [选项] ... 尾数
- seq [选项] 首数 ... 尾数
- seq [选项] 首数 增量 尾数
1.输出连续整数
1)输出从 1 到 5 的整数
[root@localhost ~]# seq 5
2)输出从 1 到 10,间隔为 2 的所有整数
[root@localhost ~]# seq 1 2 10
3)输出从 0 到 10,间隔为 2 的所有整数
[root@localhost ~]# seq 0 2 10
2.指定输出格式
1)数字位数为三位,不足补空格
[root@localhost ~]# seq -f '%3g' 1 5
2)数字位数为三位,不足补 0
[root@localhost ~]# seq -f '%03g' 1 5
3)在 test 后面将数字位数为二位,不足补 0
[root@localhost ~]# seq -f 'test%02g' 1 5
3.指定分隔符
1)空格作为分隔符
[root@localhost ~]# seq -s ' ' 1 5
2)中划线作为分隔符
[root@localhost ~]# seq -s '-' 1 5
4.指定输出数字同宽
1)等宽输出 8 到 12 之间的连续整数
[root@localhost ~]# seq -w 8 12
2)等宽输出 99 到 101 之间的连续整数
[root@localhost ~]# seq -w 99 101
5.组合使用
等宽输出 99 到 101 之间的连续整数,并用空格分隔
[root@localhost ~]# seq -w -s ' ' 99 101