ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat

本文涉及的产品
云数据库 Tair(兼容Redis),内存型 2GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
日志服务 SLS,月写入数据量 50GB 1个月
简介: ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat

ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat

当我们在对系统日志进行处理的时候,我们需要结合成本考虑方案,前期如果使用 Logstash 进行日志收集的话会耗费较多的机器性能,我们这里选择优化一下日志的采集。简单介绍一下即将出场的家伙: filebeat

首先 filebeatBeats 中的一员。 Beats 在是一个轻量级日志采集器,其实 Beats 家族有6个成员,早期的 ELK 架构中使用 Logstash 收集、解析日志,但是 Logstash内存cpuio 等资源消耗比较高。相比 LogstashBeats 所占系统的 CPU 和内存几乎可以忽略不计。

Beats 有目前七个工具:

  1. Functionbeat 能收集、传送并监测来云服务的相关数据
  2. Packetbeat 网络数据(收集网络流量数据)
  3. Metricbeat:指标(收集系统、进程和文件系统级别的CPU和内存使用情况等数据)
  4. Filebeat:日志文件(收集文件数据)
  5. Winlogbeat:windows事件日志(收集Windows事件日志数据)
  6. Auditbeat:审计数据(收集审计日志)
  7. Heartbeat:运行时间监控(收集系统运行时的数据)

安装filebeat

wget https://mirrors.huaweicloud.com/filebeat/7.6.0/filebeat-7.6.0-linux-x86_64.tar.gz
tar -zxvf filebeat-7.6.0-linux-x86_64.tar.gz

Filebeat输出到文件

  • filebeat.yml
filebeat.inputs:
# 指定文件的输入类型log
- type: log 
  enabled: true
  # 指定要监控的日志,可以指定具体得文件或者目录
  paths:
    - /var/log/test-filebeat.log
# 输出方式 可以以文件输出
output.file:
  path: "/tmp"
  filename: "filebeat.txt"
  • 测试
echo test >> /var/log/test-filebeat.log

查看到输出文件已经有变化了

输出到logstash

  • filebeat.yml
output.logstash:
  hosts: ["192.168.179.124:5044"]
  • logstash配置
input {
    beats {
        port => 5044
    }
}
output {
    elasticsearch {
        hosts => ["192.168.179.124:9200"]        #elasticsearch服务器地址
        user => "elastic"
        password => "${ES_PWD}"
        index => "logstash-filebeat-%{+YYYY.MM.dd}"    #索引名称
    }
}
  • 测试数据
echo hello >> /var/log/test-filebeat.log
  • 查看索引模式

输出到Redis

  • filebeat.yml
output.redis:
  hosts: ["192.168.179.124:6379"]
  key: "test-filebeat"
  db: 0
  timeout: 5
  • 查看连接 redis 日志

  • 查看效果

logstash从redis中读取数据

  • logstash-filebeat.conf 配置 logstash
input {
    redis {
        data_type => "list"
        host => "192.168.179.124"
        port => "6379" 
        db => 0 # 指定库
        key => "test-filebeat" # 配置redis 键
    }
}
output {
    elasticsearch {
        hosts => ["192.168.179.124:9200"]        #elasticsearch服务器地址
        user => "elastic"
        password => "${ES_PWD}"
        index => "logstash-test-%{+YYYY.MM.dd}"    #索引名称
    }
}
  • 启动 logstash
./bin/logstash -f ./conf.d/logstash-filebeat.conf
  • 测试数据
echo test >> /var/log/test-filebeat.log

logstash 会一直从 redis 中获取数据,获取完成会删除掉 redis 的键,我们创建 kibana 的索引模式来查看一下收取的数据

经过这篇文章的理解,我们应该更好的理解 Logstash, 他可以输出地方很多,可以直接输出到 队列ES文件等等,非常轻量和灵活

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
打赏
0
0
0
0
340
分享
相关文章
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
242 90
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
540 3
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统ELK、日志收集分析
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统、日志收集分析。日志级别从小到大的关系(优先级从低到高): ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF 低级别的会输出高级别的信息,高级别的不会输出低级别的信息
在Linux中,如何使用ELK进行日志管理和分析?
在Linux中,如何使用ELK进行日志管理和分析?
如何在项目中快速引入Logback日志并搭配ELK使用
如何在项目中快速引入Logback日志并搭配ELK使用

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等