Golang学习笔记之日志log、zap

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:

一、log日志包

log支持并发操作。其结构定义如下:

1type Logger struct {
2    mu sync.Mutex     // ensures atomic writes; protects the following fields
3    prefix string     // prefix to write at beginning of each line // ⽇志⾏前缀
4    flag int          // properties // ⽇志打印格式标志,⽤于指定每⾏⽇志的打印格式
5    out io.Writer     // destination for output // ⽤于指定⽇志输出位置,理论上可以是任务地⽅,只要实现了io.Writer接⼝就⾏
6    buf []byte        // for accumulating text to write // ⽇志内容
7}

log基本日志格式

1Ldate       = 1 << iota     //  形如  2009/01/23  的⽇期
2Ltime                       //  形如  01:23:23            的时间
3Lmicroseconds               //  形如  01:23:23.123123         的时间
4Llongfile                   //  全路径⽂件名和⾏号:  /a/b/c/d.go:23  
5Lshortfile                  //  ⽂件名和⾏号: d.go:23 
6LstdFlags   = Ldate | Ltime //  ⽇期和时间

(1)Golang's log模块主要提供了3类接口。分别是 “Print 、Panic 、Fatal ”,对每一类接口其提供了3中调用方式,分别是 "Xxxx 、Xxxxln 、Xxxxf",基本和fmt中的相关函数类似。

• log.Print:打印日志,和fmt.包没什么区别,只是加上了上面的日志格式
• log.Fatal :,会先将日志内容打印到标准输出,接着调用系统的os.exit(1) 接口,退出程序并返回状态 1 。但是有一点需要注意,由于是直接调用系统接口退出,defer函数不会被调用。
• log.Panic:该函数把日志内容刷到标准错误后调用 panic 函数,
demo

 1package main
 2
 3import (
 4    "fmt"
 5    "log"
 6)
 7//fatal
 8func testDeferfatal() {
 9    defer func() {
10        fmt.Println("--first--")
11    }()
12    log.Fatalln("test for defer Fatal")
13}
14//panic
15func testDeferpanic() {
16    defer func() {
17        fmt.Println("--first--")
18        if err := recover(); err != nil {
19            fmt.Println(err)
20        }
21    }()
22    log.Panicln("test for defer Panic")
23    defer func() {
24        fmt.Println("--second--")
25    }()
26}
27func main() {
28    arr := []int{2, 3}
29
30    log.Print("Print array ", arr, "\n")
31    log.Println("Println array", arr)
32    log.Printf("Printf array with item [%d,%d]\n", arr[0], arr[1])
33
34    testDeferpanic()
35
36
37    testDeferfatal()
38}

输出为
2018/12/17 21:28:33 Print array [2 3]
2018/12/17 21:28:33 Println array [2 3]
2018/12/17 21:28:33 Printf array with item [2,3]
2018/12/17 21:28:33 test for defer Panic
--first--
test for defer Panic

2018/12/17 21:28:33 test for defer Fatal
exit status 1

(2)你也可以自定义Logger类型
log.Logger提供了一个New方法用来创建对象
函数原型
func New(out io.Writer, prefix string, flag int) *Logger
①输出位置out,是一个io.Writer对象,该对象可以是一个文件也可以是实现了该接口的对象。通常我们可以用这个来指定日志输出到哪个文件
②prefix 我们在前面已经看到,就是在日志内容前面的东西。我们可以将其置为 "[Info]" 、 "[Warning]"等来帮助区分日志级别。
③flags 是一个选项,显示日志开头的东西,可选的值见前面所述

demo

 1func main() {
 2    fileName := "/Users/zt/Desktop/Info_First.log"//路径+文件名
 3    logFile, err := os.Create(fileName)
 4    defer logFile.Close()
 5    if err != nil {
 6        log.Fatalln("open file error")
 7    }
 8    debugLog := log.New(logFile, "[Info]", log.Llongfile)
 9    debugLog.Println("A Info message here")
10    debugLog.SetPrefix("[Debug]")
11    debugLog.Println("A Debug Message here ")
12}

二、Zap日志包使用

uber开源的高性能日志库
go get go.uber.org/zap
demo

 1func panic() {
 2    if err := recover(); err != nil {
 3        fmt.Println(err)
 4    }
 5}
 6func main() {
 7    url := "Hello"
 8    logger, _ := zap.NewProduction()
 9    //logger, _ := zap.NewDevelopment()
10
11    defer panic()
12    //Sync刷新任何缓冲的日志条目。
13    defer logger.Sync()
14    logger.Info("failed to fetch URL",
15        // Structured context as strongly typed Field values.
16        zap.String("url", url),
17        zap.Int("attempt", 3),
18        zap.Duration("backoff", time.Second),
19    )
20    logger.Warn("debug log", zap.String("level", url))
21    logger.Error("Error Message", zap.String("error", url))
22    logger.Panic("Panic log", zap.String("level", url))
23}

(1)通过HTTP接口动态的改变日志级别

demo

 1func main() {
 2    alevel := zap.NewAtomicLevel()
 3    http.HandleFunc("/handle/level", alevel.ServeHTTP)
 4    go func() {
 5        if err := http.ListenAndServe(":9090", nil); err != nil {
 6            panic(err)
 7        }
 8    }()
 9    // 默认是Info级别
10    logcfg := zap.NewProductionConfig()
11    logcfg.Level = alevel
12    logger, err := logcfg.Build()
13    if err != nil {
14        fmt.Println("err", err)
15    }
16    defer logger.Sync()
17    for i := 0; i < 1000; i++ {
18        time.Sleep(1 * time.Second)
19        logger.Debug("debug log", zap.String("level", alevel.String()))
20        logger.Info("Info log", zap.String("level", alevel.String()))
21    }
22}


查看日志级别
curl http://localhost:9090/handle/level
输出
image
调整日志级别(可选值 “debug” “info” “warn” “error” 等)
curl -XPUT --data '{"level":"debug"}' http://localhost:9090/handle/level
输出
image
当然也可以使用之前在Gin说过的工具RESTClient来模拟,
image
(2)将日志进行序列化文件:lumberjack

支持文件按大小或者时间归档
GitHub地址:https://github.com/natefinch/lumberjack

go get github.com/natefinch/lumberjack

1package main
 2
 3import (
 4    "go.uber.org/zap"
 5    "go.uber.org/zap/zapcore"
 6    lumberjack "gopkg.in/natefinch/lumberjack.v2"
 7)
 8func initLogger(logpath string, loglevel string) *zap.Logger {
 9    hook := lumberjack.Logger{
10        Filename:   logpath, // ⽇志⽂件路径
11        MaxSize:    1024,    // megabytes
12        MaxBackups: 3,       // 最多保留3个备份
13        MaxAge:     7,       //days
14        Compress:   true,    // 是否压缩 disabled by default
15    }
16    w := zapcore.AddSync(&hook)
17    var level zapcore.Level
18    switch loglevel {
19    case "debug":
20        level = zap.DebugLevel
21    case "info":
22        level = zap.InfoLevel
23    case "error":
24        level = zap.ErrorLevel
25    default:
26        level = zap.InfoLevel
27    }
28    encoderConfig := zap.NewProductionEncoderConfig()
29    encoderConfig.EncodeTime = zapcore.ISO8601TimeEncoder
30    core := zapcore.NewCore(
31        zapcore.NewConsoleEncoder(encoderConfig),
32        w,
33        level,
34    )
35    logger := zap.New(core)
36    logger.Info("DefaultLogger init success")
37    return logger
38}
39func main() {
40    logger := initLogger("all.log", "info")
41    logger.Info("test log", zap.Int("line", 47))
42    logger.Warn("testlog", zap.Int("line", 47))
43}

在当前文件夹下的all.log
image

原文发布时间为:2018-12-22
本文作者: Golang语言社区
本文来自云栖社区合作伙伴“Golang语言社区”,了解相关信息可以关注“Golangweb”微信公众号

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
2月前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
428 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
22天前
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
|
1月前
|
存储 监控 安全
什么是事件日志管理系统?事件日志管理系统有哪些用处?
事件日志管理系统是IT安全的重要工具,用于集中收集、分析和解释来自组织IT基础设施各组件的事件日志,如防火墙、路由器、交换机等,帮助提升网络安全、实现主动威胁检测和促进合规性。系统支持多种日志类型,包括Windows事件日志、Syslog日志和应用程序日志,通过实时监测、告警及可视化分析,为企业提供强大的安全保障。然而,实施过程中也面临数据量大、日志管理和分析复杂等挑战。EventLog Analyzer作为一款高效工具,不仅提供实时监测与告警、可视化分析和报告功能,还支持多种合规性报告,帮助企业克服挑战,提升网络安全水平。
|
2月前
|
存储 监控 安全
什么是日志管理,如何进行日志管理?
日志管理是对IT系统生成的日志数据进行收集、存储、分析和处理的实践,对维护系统健康、确保安全及获取运营智能至关重要。本文介绍了日志管理的基本概念、常见挑战、工具的主要功能及选择解决方案的方法,强调了定义管理目标、日志收集与分析、警报和报告、持续改进等关键步骤,以及如何应对数据量大、安全问题、警报疲劳等挑战,最终实现日志数据的有效管理和利用。
141 0
|
3月前
|
Python
log日志学习
【10月更文挑战第9天】 python处理log打印模块log的使用和介绍
47 0
|
3月前
|
数据可视化
Tensorboard可视化学习笔记(一):如何可视化通过网页查看log日志
关于如何使用TensorBoard进行数据可视化的教程,包括TensorBoard的安装、配置环境变量、将数据写入TensorBoard、启动TensorBoard以及如何通过网页查看日志文件。
297 0
|
3月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
356 3
|
5月前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
147 3
|
3月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1741 14
MySQL事务日志-Redo Log工作原理分析
|
3月前
|
存储 分布式计算 NoSQL
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
74 0