【资料整理】下载和分析cdn节点汇总日志

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:

资料整理】下载和分析cdn节点汇总日志

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
#!/bin/bash
# filename: log_cdn.sh
# 2014/11/20
# mkdir -p /home/log/cdn/{log,stat}
 
action=$1
dt=$2
[ -z ${dt} ] && dt=$( date  -d  "yesterday"  + "%Y-%m-%d" )
 
location= "ftp.xxcdn.com"
ftpsvr= "ftp://${location}"
d_base= "/home/log/cdn"
d_stat= "${d_base}/stat"
d_log= "${d_base}/log"
f_logdetail= "${d_base}/log/download.log"
f_logwget= "${d_base}/log/wget.log"
 
usage() {
     cat  <<_EOF
 
$0 [stat|clean]  date
 
_EOF
}
 
s_domains= "www.xxx.com"
list_domain=(${s_domains})
lens_domain=${ #list_domain[@]}
 
log_download() {
     local  s_URL= "$1"
 
     echo  "[+] START: `date +" %Y-%m-%d %H:%M:%S "`"
     echo  "[-] ready to get: ${s_URL}"
     wget -P ${d_base} -- ftp -user=xxx -- ftp -password=xxx -m -c -t5 ${s_URL} -a ${f_logwget} -nv
     echo  "[-] END: `date +" %Y-%m-%d %H:%M:%S "`"
}
 
log_stat() {
     for  ((i=0;i<$lens_domain;i++))
     do
         local  s_URL= "${ftpsvr}/${list_domain[$i]}/${dt}*"
         log_download ${s_URL}
         local  d_result= "${d_stat}/${list_domain[$i]}/${dt}"
         mkdir  -p ${d_result} &&  cd  ${d_result}
         local  f_pattern= "${d_base}/${location}/${list_domain[$i]}/${dt}-*.cn.*"
         ls  ${f_pattern}
         zcat ${f_pattern} | awk  '{print $7}'  | sort  | uniq  -c | sort  -nr >1_uri.log
         
     done
}
 
log_clean() {
     find  ${d_base}/${location} - type  -f -mtime +13 -delete
}
 
case  ${action}  in
     stat)
         log_clean
         log_stat ${dt} >${f_logdetail} 2>&1 &
         ;;
     clean)
         log_clean
         ;;
     *)
         usage
         ;;
esac



本文转自 pcnk 51CTO博客,原文链接:http://blog.51cto.com/nosmoking/1595612,如需转载请自行联系原作者

相关实践学习
Serverless极速搭建Hexo博客
本场景介绍如何使用阿里云函数计算服务命令行工具快速搭建一个Hexo博客。
相关文章
|
11天前
|
存储 SQL 监控
|
11天前
|
运维 监控 安全
|
14天前
|
监控 关系型数据库 MySQL
分析慢查询日志
【10月更文挑战第29天】分析慢查询日志
35 3
|
14天前
|
监控 关系型数据库 数据库
怎样分析慢查询日志?
【10月更文挑战第29天】怎样分析慢查询日志?
32 2
|
1月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1630 14
|
1月前
|
存储 消息中间件 大数据
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
35 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
45 2
|
12天前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
121 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
1月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
220 3
|
1月前
|
Python
log日志学习
【10月更文挑战第9天】 python处理log打印模块log的使用和介绍
31 0