ElasticStack:使用FileBeat、Logstash、Elasticsearch、Kibana收集清洗存储查看分析数据

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: ElasticStack:使用FileBeat、Logstash、Elasticsearch、Kibana收集清洗存储查看分析数据

借用ElasticStack的一张图,很好的阐述了LEK的在数据处理中的位置

2.png

一、环境:

版本均未5.2.0

https://www.elastic.co/cn/downloads/past-releases


1、filebeat:

https://www.elastic.co/cn/downloads/past-releases/filebeat-5-2-0

2、logstash

https://www.elastic.co/cn/downloads/past-releases/logstash-5-2-0

3、elasticsearch:

https://www.elastic.co/cn/downloads/past-releases/elasticsearch-5-2-0

4、kibana:

https://www.elastic.co/cn/downloads/past-releases/kibana-5-2-0

二、日志准备

使用python脚本定时生成模拟日志


generator_log.py

# -*- encoding:utf-8 -*-
import time
from chinesename import ChineseName
cn = ChineseName()
while True:
    now = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime())
    message = "{} {}\n".format(now, cn.getName())
    print(message)
    with open("demo.log", "a", encoding="utf-8") as f:
        f.write(message)
    # 每3秒生成一条日志     
    time.sleep(3)

日志示例(日期 姓名):

2019-06-13 18:01:31 容休

三、filebeat

1、配置

修改配置文件filebeat.yml

可以选择直接将数据传入Elasticsearch,也可以传入Logstash处理

filebeat.prospectors:
- input_type: log
  paths:
# 配置需要收集的文件地址
    - /var/log/*.log 
#-------------------------- Elasticsearch output ------------------------------
# output.elasticsearch:
  # hosts: ["localhost:9200"]
#----------------------------- Logstash output --------------------------------
output.logstash:
  hosts: ["localhost:5044"]

2、启动:

./filebeat -e -c filebeat.yml -d "publish"

参考:开始使用Filebeat

3.png

四、logstash

1、匹配说明

(1)内置匹配

%{SYNTAX:SEMANTIC}

(2)ruby正则

(?<name>pattern)

关于Ruby的正则:

Ruby 正则表达式: https://www.runoob.com/ruby/ruby-regular-expressions.html

Ruby 正则匹配测试: https://rubular.com/


2、配置

新建一个文件夹存放自定义匹配模式

$ mkdir ./patterns
$ cat ./patterns/datetime.re
DATETIME \d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}

es-pipeline.conf

input {
    beats {
        port => "5044"
    }
}
filter {
    grok {
        patterns_dir => ["./patterns"]
        match => { 
            "message" => "%{DATETIME:logdate} (?<text>(.*))"
        }
        remove_field  => "message"
   }
   date {
        match => ["logdate", "yyyy-MM-dd HH:mm:ss"]
    }
}
output {
    stdout { codec => rubydebug }
    elasticsearch {
        hosts => [ "localhost:9200" ]
    }
}

3、启动logstash

# 解析配置文件并报告任何错误
$ ./bin/logstash -f es-pipeline.conf --config.test_and_exit
# 启用自动配置加载
$ ./bin/logstash -f es-pipeline.conf --config.reload.automatic

4.png

五、kibana中查询结果

1、启动

$ elasticsearch
$ kibana

2、查询

GET /logstash-2019.06.13/_search
{
  "sort": [
    {
      "@timestamp": {
        "order": "desc"
      }
    }
  ]
}
# 查询结果
{
  "_index": "logstash-2019.06.13",
  "_type": "log",
  "_id": "AWtQTwv8vaBpxF8s4wUp",
  "_score": null,
  "_source": {
    "@timestamp": "2019-06-13T10:08:02.000Z",
    "offset": 197738,
    "logdate": "2019-06-13 18:08:02",
    "@version": "1",
    "beat": {
      "hostname": "bogon",
      "name": "bogon",
      "version": "5.2.0"
    },
    "input_type": "log",
    "host": "bogon",
    "source": "/Users/qmp/Desktop/log/demo.log",
    "text": "伯镟",
    "type": "log",
    "tags": [
      "beats_input_codec_plain_applied"
    ]
  },
  "sort": [
    1560420482000
  ]
}

图形化查看日志数量曲线图

5.png

参考

使用Logstash filter grok过滤日志文件

Logstash使用grok进行日志过滤

Logstash介绍


相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
消息中间件 监控 NoSQL
|
8月前
|
关系型数据库 MySQL Java
基于Elasticsearch+Logstash+Kibana的小型流量分析系统
基于Elasticsearch+Logstash+Kibana的小型流量分析系统
|
12月前
|
数据采集 Java 应用服务中间件
1分钟系列-Filebeat 采集数据保存到 Elasticsearch
1分钟系列-Filebeat 采集数据保存到 Elasticsearch
|
12月前
|
消息中间件 数据可视化 JavaScript
日志可视化方案:ELK+filebeat
日志可视化方案:ELK+filebeat
|
存储 数据处理 Ruby
ElasticStack:使用FileBeat、Logstash、Elasticsearch、Kibana收集清洗存储查看分析数据
ElasticStack:使用FileBeat、Logstash、Elasticsearch、Kibana收集清洗存储查看分析数据
97 0
ElasticStack:使用FileBeat、Logstash、Elasticsearch、Kibana收集清洗存储查看分析数据
|
监控 索引
五分钟带你玩转Elasticsearch(十)企业实战——使用logstash监控多服务器并获取日志
五分钟带你玩转Elasticsearch(十)企业实战——使用logstash监控多服务器并获取日志
407 0
|
编解码
【云上ELK系列】Logstash迁移Elasticsearch数据方法解读
用Logstash实现Elasticsearch集群快速迁移,解读Logstash中metadata的功效,避免踩坑
6515 0