go语言并发实战——日志收集系统(四) 利用tail包实现对日志文件的实时监控

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: go语言并发实战——日志收集系统(四) 利用tail包实现对日志文件的实时监控

Linux中的tail命令

tail 命令是一个在 Unix/Linux 操作系统上用来显示文件末尾内容的命令。它可以显示文件的最后几行内容,默认情况下显示文件的最后 10 行。tail 命令

非常有用,特别是在我们查看日志文件或者监视文件变化时。

基本用法如下:

tail [选项]… [文件]…

一些常用的选项包括:

  • -n <行数>:显示指定行数的末尾内容。例如,tail -n 20 filename 将显示文件 filename 的最后 20 行。
  • -f:在文件末尾持续输出内容,常用于查看日志文件实时变化。使用 Ctrl + C 终止。
  • -c <字节数>:显示指定字节数的末尾内容。例如,tail -c 100 filename 将显示文件 filename 的最后 100 个字节。

tail包简介

go语言中tail包用于输出文件的最后几行。假设该档案有更新,tail会自己主动刷新,确保我们看到是最新的档案内容 ,在日志收集中可以实时的监测日志的变

化。

下载tail包

tail包的地址为:

github.com/hpcloud/tail

但是这里直接执行的话会报错

PS G:\goproject\-goroutine-\tailfdemo> go get github.com/hpcloud/tail go: gopkg.in/fsnotify.v1@v1.4.9: go.mod has non-....v1 module path "github.com/fsnotify/fsnotify" at revision v1.4.9,

这个主要是因为tail包中有依赖包的名字修改了,所以我们也要做对应的修改:

  • 首先,打开设置,找到自己的GoPath路径:

  • 然后到路径下找到tail包:

  • 最后对tail代码目录下的inotify.go和inotify_tracker.go两个文件,

将gopkg.in/fsnotify/fsnotify.v1 修改为 github.com/fsnotify/fsnotify, 然后再执行go mod tidy 命令即可。

  • 加载成功:

tail包相关函数及结构体

TailFile函数

func TailFile(filename string, config Config) (*Tail, error) {
}

tail2.TailFile()函数的参数是文件路径和配置文件,会生成一个Tail结构体。在Tail结构体中,最重要的属性是文件名Filename和用于存储文件一行Line

的通道Lines:

type Tail struct {
Filename string
Lines    chan *Line
Config
file   *os.File
reader *bufio.Reader
watcher watch.FileWatcher
changes *watch.FileChanges
tomb.Tomb // provides: Done, Kill, Dying
lk sync.Mutex
}
type Line struct{  //用来存储每一行日志
  Text string
  Time time.Time
  Err error
}

除此之外,还有一个结构体Config用来配置tail2.TailFile()函数的参数:

type Config struct {
// File-specifc
Location    *SeekInfo // Seek to this location before tailing
ReOpen      bool      // Reopen recreated files (tail -F)
MustExist   bool      // Fail early if the file does not exist
Poll        bool      // Poll for file changes instead of using inotify
Pipe        bool      // Is a named pipe (mkfifo)
RateLimiter *ratelimiter.LeakyBucket
// Generic IO
Follow      bool // Continue looking for new lines (tail -f)
MaxLineSize int  // If non-zero, split longer lines into multiple lines
// Logger, when nil, is set to tail.DefaultLogger
// To disable logging: set field to tail.DiscardingLogger
Logger logger
}

下面是对一些参数的说明:

  • Location *SeekInfo: 指定文件的起始读取位置。SeekInfo 是一个指针类型,可能包含文件偏移等信息。
  • ReOpen bool: 是否重新打开已经被重新创建的文件。当文件被重新创建时(比如通过 tail -F 命令监视日志文件时),如果设置为 true,则重新打开该文件,继续读取新内容。
  • MustExist bool: 如果文件不存在是否立即报错。当设置为 true 时,如果文件不存在,则会立即报错而不是等待文件出现。
  • Poll bool: 是否使用轮询的方式检查文件变化,而不是使用 inotify。在一些系统上,inotify 可能不可用或者不够稳定,此时可以通过设置为 true 来强制使用轮询方式。
  • Pipe bool: 是否为命名管道(mkfifo)。如果文件是通过 mkfifo 命令创建的命名管道,则设置为 true。
  • RateLimiter *ratelimiter.LeakyBucket: 速率限制器,用于限制文件读取的速率。ratelimiter.LeakyBucket 可能是一个实现了漏桶算法的速率限制器,用于控制读取速度。
  • Follow bool: 是否继续监视文件的新内容(类似于 tail -f 命令)。如果设置为 true,则会持续监视文件,并读取新的行内容。
  • MaxLineSize int: 如果非零,表示最大的行长度。如果读取到的行长度超过该值,则会将其分割成多个行。
  • Logger logger: 日志记录器,用于记录文件读取过程中的日志信息。如果设置为 nil,则会使用默认的日志记录器(tail.DefaultLogger)。如果想禁用日志记录,则可以将该字段设置为 tail.DiscardingLogger。

tail读取日志文件的代码样例;

  • 代码
package main
import (
  "fmt"
  "github.com/hpcloud/tail"
  "time"
)
func main() {
  filename := "G:\\goproject\\-goroutine-\\tailfdemo\\time.log"
  config := tail.Config{
    Follow:    true,  //进行跟随
    ReOpen:    true,  //重新打开
    MustExist: false, //文件打开失败不报错
    Poll:      true,
    Location:  &tail.SeekInfo{Offset: 0, Whence: 2},
  }
  tail, err := tail.TailFile(filename, config)
  if err != nil {
    fmt.Println("tail file failed,err:", err)
    return
  }
  for {
    line, ok := <-tail.Lines
    if !ok {
      fmt.Println("tail file close reopen, filename: ", tail.Filename)
      time.Sleep(1 * time.Second)
      continue
    }
    fmt.Println("line:", line.Text)
  }
}

这里我们输入log文件中,输出控制台就会实时更新了:

总结

  • 流程:
  • 首先定义Config结构体,初始化配置文件
  • 利用TailFile函数得到Tail结构体,Tail结构体中的Lines封装了拿到的信息
  • 循环遍历Tail.Lines,取出信息,可以实现实时监控
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
8天前
|
人工智能 运维 监控
Aipy实战:分析apache2日志中的网站攻击痕迹
Apache2日志系统灵活且信息全面,但安全分析、实时分析和合规性审计存在较高技术门槛。为降低难度,可借助AI工具如aipy高效分析日志,快速发现攻击痕迹并提供反制措施。通过结合AI与学习技术知识,新手运维人员能更轻松掌握复杂日志分析任务,提升工作效率与技能水平。
|
6月前
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
170 9
|
3月前
|
存储 监控 Java
JVM实战—7.如何模拟GC场景并阅读GC日志
本文主要介绍了:如何动手模拟出频繁Young GC的场景、JVM的Young GC日志应该怎么看、编写代码模拟动态年龄判定规则进入老年代、编写代码模拟S区放不下部分进入老年代、JVM的Full GC日志应该怎么看。
127 16
JVM实战—7.如何模拟GC场景并阅读GC日志
|
4月前
|
存储 SQL 关系型数据库
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log、原理、写入过程;binlog与redolog区别、update语句的执行流程、两阶段提交、主从复制、三种日志的使用场景;查询日志、慢查询日志、错误日志等其他几类日志
308 35
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
|
3月前
|
存储 监控 算法
基于 PHP 语言的滑动窗口频率统计算法在公司局域网监控电脑日志分析中的应用研究
在当代企业网络架构中,公司局域网监控电脑系统需实时处理海量终端设备产生的连接日志。每台设备平均每分钟生成 3 至 5 条网络请求记录,这对监控系统的数据处理能力提出了极高要求。传统关系型数据库在应对这种高频写入场景时,性能往往难以令人满意。故而,引入特定的内存数据结构与优化算法成为必然选择。
62 3
|
3月前
|
监控 Java 应用服务中间件
Tomcat log日志解析
理解和解析Tomcat日志文件对于诊断和解决Web应用中的问题至关重要。通过分析 `catalina.out`、`localhost.log`、`localhost_access_log.*.txt`、`manager.log`和 `host-manager.log`等日志文件,可以快速定位和解决问题,确保Tomcat服务器的稳定运行。掌握这些日志解析技巧,可以显著提高运维和开发效率。
178 13
|
3月前
|
缓存 Java 编译器
|
4月前
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
149 5
图解MySQL【日志】——Redo Log
|
4月前
|
运维 应用服务中间件 nginx
docker运维查看指定应用log文件位置和名称
通过本文的方法,您可以更高效地管理和查看Docker容器中的日志文件,确保应用运行状态可控和可监测。
346 28
|
4月前
|
存储 缓存 安全
Go 语言中的 Sync.Map 详解:并发安全的 Map 实现
`sync.Map` 是 Go 语言中用于并发安全操作的 Map 实现,适用于读多写少的场景。它通过两个底层 Map(`read` 和 `dirty`)实现读写分离,提供高效的读性能。主要方法包括 `Store`、`Load`、`Delete` 等。在大量写入时性能可能下降,需谨慎选择使用场景。

热门文章

最新文章