[linux]linux过滤日志奇偶数行-阿里云开发者社区

开发者社区> 开发与运维> 正文

[linux]linux过滤日志奇偶数行

简介:
sed -n -e 'n' -e 'p' -i tmp.txt 偶数 实践过 

去掉文件里的重复行: 
sort file |uniq 

下面就把这些方法总结下来。 
along@along-laptop:~/code/shell$ cat file 
1 
2 
3 
4 
5 
6 
7 

awk实现: 

一: 
1,awk 'NR%2==1' file 
2,awk 'NR%2==0' file 

二:(这是直接将偶数行和奇数行分别打印到了file2和file1中,这种方法有缺陷就是在file2中始终会打印 
     最后一行,这个应该改进。不过这也是一种思想,我就把这种方法放在这里了。) 
awk '{print $0 > "file1"; getline; print $0 > "file2"; }' file 

三: 
1.awk 'NR%2' file 
2.awk '!(NR%2)' file 

四: 
1.awk 'i=i?0:1' file 
2.awk '!(i=i?0:1)' file 

五: 
1.awk 'i=!i' file 
2.awk '!(i=!i)' file 

解释: 
awk 'var=xx'应该说等价于awk 'xx{print}{var=xx}' 

awk 'i=!i'  == >  awk '!i{print}{i=!i} 
line 1: !0{print}{i=!0}==> {print;i=1} 
line 2: !1{print}{i=!1}==> {i=0} 
line 3: !0{print}{i=!0}==> {print;i=1} 
sed实现 

一: 
1.sed -n 'p;n' file 
2.sed -n 'n;p' file 

二:(这种方法更通用一点) 
1.sed -n '1~2p' file 
2.sed -n '2~2p' file 

关于sed的模式空间的问题以及G,g,H,h的问题可以在我的另外一篇文章中找到我的总结。 
http://blog.chinaunix.net/u2/77727/showart.php?id=1997477

版权声明:本文首发在云栖社区,遵循云栖社区版权声明:本文内容由互联网用户自发贡献,版权归用户作者所有,云栖社区不为本文内容承担相关法律责任。云栖社区已升级为阿里云开发者社区。如果您发现本文中有涉嫌抄袭的内容,欢迎发送邮件至:developer2020@service.aliyun.com 进行举报,并提供相关证据,一经查实,阿里云开发者社区将协助删除涉嫌侵权内容。

分享:
开发与运维
使用钉钉扫一扫加入圈子
+ 订阅

集结各类场景实战经验,助你开发运维畅行无忧

其他文章