Filebeat轻量级日志采集工具

简介: Beats 平台集合了多种单一用途数据采集器。这些采集器安装后可用作轻量型代理,从成百上千或成千上万台机器向 Logstash 或 Elasticsearch 发送数据。 一、架构图 此次试验基于前几篇文章,需要先基于前几篇文章搭建基础环境。
+关注继续查看

img_64ccfbc0baaa17fa8df91207d9cfbb64.png

Beats 平台集合了多种单一用途数据采集器。这些采集器安装后可用作轻量型代理,从成百上千或成千上万台机器向 Logstash 或 Elasticsearch 发送数据。

一、架构图

此次试验基于前几篇文章,需要先基于前几篇文章搭建基础环境。
img_f2cdfaf51e5d8afd6fed16785efa6ebc.png

二、安装Filebeat

  • 下载并安装Filebeat

    wget  https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.0.1-x86_64.rpm
    yum install ./filebeat-6.0.1-x86_64.rpm
  • 修改Filebeat配置文件

    vim /etc/filebeat/filebeat.yml                          # 主配置文件
    \- type: log                                            # 文档类型
    paths:
    \- /var/log/httpd/access.log*                       # 从哪里读入数据
    # 输出在elasticsearch与logstash二选一即可
    output.elasticsearch:                               #将数据输出到Elasticsearch。与下面的logstash二者选一
      hosts: ["localhost:9200"]
    output.logstash:                                    # 将数据传送到logstash,要配置logstash使用beats接收
      hosts: ["172.18.68.14:5044"]
  • 启动Filebeat

    systemctl start filebeat

    三、配置Filebeat

  • 配置Logstash接收来自Filebeat采集的数据

    vim /etc/logstash/conf.d/test.conf
    input {
        beats {
                port => 5044                                            # 监听5044用于接收Filebeat传来数据
        }
    }
    filter {
      grok {
    match => {
      "message" => "%{COMBINEDAPACHELOG}"                               # 匹配HTTP的日志
    }
    remove_field => "message"                                           # 不显示原信息,仅显示匹配后
      }
    }
    output {
     elasticsearch {
     hosts => ["http://172.18.68.11:9200","http://172.18.68.12:9200","http://172.18.68.13:9200"]    # 集群IP
     index => "logstash-%{+YYYY.MM.dd}"
     action => "index"
     document_type => "apache_logs"
     }
    }
  • 启动Logstash

     /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/test.conf

四、模拟日志访问

通过curl命令来模拟客户访问,生成访问日志

curl 127.0.0.1
curl 172.18.68.51
curl 172.18.68.52
curl 172.18.68.53

五、验证信息

清除之前实验的旧数据(删除时要在对话框中输入删除),然后可以看到filebeat采集数据经过Logtash过滤再送给Elasticsearch的数据。
img_a858a4da2b8c4d3005de54d96b9a51b9.png

扩展

随着ELK日志系统逐渐升级,现在已经能基于Filebeat采集各节点日志,Logstash过滤、修剪数据,最后到ELasticsearch中进行索引构建、分词、构建搜索引擎。现在可以基于Elasticsearch的Head查看在浏览器中查看,但是Head仅仅能简单查看并不能有效进行数据分析、有好展示。要想进行数据分析、有好展示那就需要用到Kibana,Kibana依然放在下一篇文章中讲解,这里先放上架构图。

img_f149458da75e9a410e62ba71745eb55b.png

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
2月前
|
监控 NoSQL Redis
ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat
ELK7.x日志系统搭建 3. 采用轻量级日志收集Filebeat
55 0
|
5月前
|
消息中间件 数据可视化 JavaScript
日志可视化方案:ELK+filebeat
日志可视化方案:ELK+filebeat
|
9月前
|
监控 Linux 开发工具
日志收集分析利器-ELK加FileBeat
日志收集分析利器-ELK加FileBeat
118 0
日志收集分析利器-ELK加FileBeat
|
9月前
|
存储 Prometheus Kubernetes
轻量级日志可视化平台Grafana Loki接入nginx访问日志
轻量级日志可视化平台Grafana Loki接入nginx访问日志
978 0
轻量级日志可视化平台Grafana Loki接入nginx访问日志
|
10月前
|
监控 数据可视化 Go
不得不学!从零到一搭建ELK日志,在Docker环境下部署 Filebeat 日志收集工具
最近在玩 ELK 日志平台,它是 Elastic 公司推出的一整套日志收集、分析和展示的解决方案。
|
10月前
|
存储 消息中间件 JSON
ELK-EFK-v7.12.0 日志平台部署
ELK-EFK-v7.12.0 日志平台部署
211 0
ELK-EFK-v7.12.0 日志平台部署
|
存储 关系型数据库 MySQL
elk+filebeat+grafana日志收集平台学习笔记(下)
elk+filebeat+grafana日志收集平台学习笔记
elk+filebeat+grafana日志收集平台学习笔记(下)
|
消息中间件 JSON NoSQL
elk+filebeat+grafana日志收集平台学习笔记(上)
elk+filebeat+grafana日志收集平台学习笔记
elk+filebeat+grafana日志收集平台学习笔记(上)
|
消息中间件 存储 Kafka
部署ELK+Kafka+Filebeat日志收集分析系统
ELK+Kafka+Filebeat日志系统 文章目录 ELK+Kafka+Filebeat日志系统 1.环境规划 2.部署elasticsearch集群 2.1.配置es-1节点 2.2.配置es-2节点 2.3.配置es-3节点 2.4.使用es-head插件查看集群状态 3.部署kibana 4.部署zookeeper 4.1.配置zookeeper-1节点 4.2.配置zookeeper-2节点 4.3.配置zookeeper-3节点 4.4.启动所有节点 5.部署kafka 5.1.配置kafka-1节点 5.2.配置kafka-2节点 5.3.配置kafka-3节点
578 0
部署ELK+Kafka+Filebeat日志收集分析系统
|
Kubernetes 监控 开发工具
iLogtail使用入门-K8S环境日志采集到SLS
iLogtail是阿里云中简单日志服务又名“SLS”的采集部分。 它用于收集遥测数据,例如日志、跟踪和指标,目前已经正式开源(https://github.com/alibaba/ilogtail)。本文通过介绍ilogtail如何在K8S环境进行安装、配置、使用的最简流程,帮助用户使用预编译版本快速上手ilogtail日志采集。
1284 1
相关产品
机器翻译
推荐文章
更多