Filebeat 日志收集器 logstash-forwarder 的替代品

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: Filebeat是一个开源的文件收集器,主要用于获取日志文件,并把它们发送到logstash或elasticsearch。与libbeat lumberjack一起替代logstash-forwarder。 在logstash-forwarder项目上,看到下面一些信息“The filebeat project replaces logstash-forwarder. Pleas

Filebeat是一个开源的文件收集器,主要用于获取日志文件,并把它们发送到logstash或elasticsearch。与libbeat lumberjack一起替代logstash-forwarder。

在logstash-forwarder项目上,看到下面一些信息“The filebeat project replaces logstash-forwarder. Please use that instead.No further development will occur on this project. Major bug fixes or security fixes may be worked on through 2016, at which point this repository and its project will be abandoned.The replacement is filebeat which receives new features and fixes frequently. ”

说明了啥?简单而言logstash-forwarder寿终正寝了,将由filebeat替代了。

前面一文《ELK部署指南》是用logstash-forwarder来收集日志的,当时刚刚研究ELK,没有细读文档,凭借之前的了解来研究的。后面将logstash-forwarder换成filebeat,请关注。

filebeat介绍

filebeat最初是基于logstash-forwarder源码的日志数据shipper。Filebeat安装在服务器上作为代理来监视日志目录或特定的日志文件,要么将日志转发到Logstash进行解析,要么直接发送到Elasticsearch进行索引。

Filebeat 架构如下:

Elasticsearch

安装Filebeat

deb:

rpm:

mac:

配置Filebeat

filebeat 默认预定了适应大部分场景的配置参数。对于最基本的Filebeat配置,可以定义一个单一路径的单一prospector,如:

该配置将获取/va/log/目录下的所有以.log结尾的文件。

如果要获取子目录下的所有文件可以这么设置/var/log/*/*.log。只会收集到/var/log/目录的子目录以.log结尾的文件,不包括 /var/log自身目录下的以.log结尾的文件。同时,也不会递归的去获取子目录的子目录下的文件。

一个配置文件可以包含多个prospector和每个prospector多个路径,如:

该配置文件启动两个prospector,第一个prospector具有两个harvester,一个获取system.log文件另一个获取wifi.log文件。第二个prospector启动一个harvester获取/var/log/apache目录下的每个文件。

向Elasticsearch加载索引模板

在启动filebeat之前,需要向elasticsearch加载索引模板,以让Elasticsearch知道哪些字段应以何种方式进行分析。

推荐的模板文件已经由Filebeat软件包提供,使用下面的命令进行加载:

es地址换成你自己的。

导出的字段

由Filebeat导出的字段,包括下面两类:

  • Common Fields
  • Log File Content Fields

common fields

包含所有事件可用的类型。

  1. shipper
    类型:字符串
  2. @timestamp
    类型:日期
    例如:2015年1月24日14:06:05.071000
    格式:YYYY-MM-DDTHH:MM:SS.milliZ
    必须:是
    日志读取的时间戳。精度为毫秒。时区是UTC。
  3. type
    必须:是
    日志事件的名称,设置为prospectors document_type 配置选项。
  4. input_type
    必须:是

Log File Content Fields

包含日志文件行。

  1. source
    类型:字符串
    必须:是
  2. offset
    类型:int
    必须:否
  3. line
    类型:int
    必须:是
  4. message
    类型:字符串
    必须:是
  5. fields Fields
    包含用户可配置的领域。
  6. fileinfo Fields
    操作系统特定文件的信息用于标识源文件。例如在Linux上inode可能会报告。

配置选项

Filebeat的配置文件使用YAML格式。配置前看看默认设置以及描述信息。filebeat.yml 包含下面几个部分:

  • Shipper
  • Output
  • Filebeat
  • Logging (optional)
  • Run options (optional)

具体请看文档:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-configuration-details.html

https://www.elastic.co/guide/en/beats/libbeat/1.0.0-rc1/configuration.html#configuration

命令行选项

所有的配置参数需要写入到配置文件中。

转自:http://www.ttlsa.com/elk/filebeat-replacement-logstash-forwarder/

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
10月前
|
存储 JSON 监控
可以通过配置Filebeat来将Higress日志持久化到磁盘
【2月更文挑战第10天】可以通过配置Filebeat来将Higress日志持久化到磁盘
128 4
|
NoSQL Redis 索引
Filebeat收集日志数据传输到Redis,通过Logstash来根据日志字段创建不同的ES索引
Filebeat收集日志数据传输到Redis,通过Logstash来根据日志字段创建不同的ES索引
215 0
|
7月前
|
消息中间件 监控 Kafka
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
456 3
|
7月前
|
存储 应用服务中间件 nginx
部署ELK+filebeat收集nginx日志
部署ELK+filebeat收集nginx日志
261 0
部署ELK+filebeat收集nginx日志
|
8月前
|
消息中间件 NoSQL Kafka
日志收集平台项目nginx、kafka、zookeeper、filebeat搭建的基本配置(2)
日志收集平台项目nginx、kafka、zookeeper、filebeat搭建的基本配置(2)
|
8月前
|
消息中间件 应用服务中间件 Kafka
日志收集平台项目nginx、kafka、zookeeper、filebeat搭建的基本配置(1)
日志收集平台项目nginx、kafka、zookeeper、filebeat搭建的基本配置(1)
|
10月前
|
监控 NoSQL Redis
ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat
ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat
176 0
|
1月前
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
34 5
图解MySQL【日志】——Redo Log
|
4月前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
1321 31
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
3月前
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
101 9