filebeat-kafka-logstash-elasticsearch日志收集[中文时区问题、自己创建type类index]

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: logstash配置文件如下: 点击(此处)折叠或打开 input{     kafka{         bootstrap_servers => "xxxx:9092,xxxx:9092,dw72.
logstash配置文件如下:

点击(此处)折叠或打开

  1. input{
  2.     kafka{
  3.         bootstrap_servers => "xxxx:9092,xxxx:9092,dw72.xxxx.:9092,...."
  4.         group_id => "xxxx_service_server_logstash"
  5.         topics => ["xxxx_service_server_error", "xxxx_service_server_runtime"]
  6.         auto_offset_reset => latest
  7.             codec => "json"
  8.         consumer_threads => 10
  9.         auto_commit_interval_ms => 500
  10.     }
  11. }

  12. filter {
  13.         grok {
  14.                 #patterns_dir => ["./patterns"]
  15.                 match => {
  16.                         "message" => "%{TIMESTAMP_ISO8601:logdatetime}"
  17.                 }
  18.         }
  19.         date {
  20.                 match => [ "logdatetime", "yyyy-MM-dd HH:mm:ss"]
  21.                 target => "@timestamp"
  22. # timezone => "Asia/Shanghai"
  23.                 timezone => "+00:00"
  24.                 locale => "en"
  25.         }
  26. }

  27. output{
  28.         elasticsearch{
  29.             hosts => ["192.168.1.89:9200"]
  30.                 action => "index"
  31.             index => "%{[type]}-%{+YYYY.MM.dd}"
  32.             flush_size => 8000
  33.         }
  34. }
主要关注两个问题:
1.event的timestamp问题,中国区会显示比实际的时间早8个小时(一般不建议修改时间,国际标准,在kibana中做处理。),这里只有国内的服务器,显示为区域时间比较好看,所以我就改了。
2.es 的index根据filebeat中的document_type自动创建index。
目录
相关文章
|
9月前
|
监控 安全 Linux
【Elasticsearch专栏 14】深入探索:Elasticsearch使用Logstash的日期过滤器删除旧数据
使用Logstash的日期过滤器可以有效删除Elasticsearch中的旧数据,释放存储空间并提高集群性能。通过配置Logstash,可以指定索引模式、筛选时间戳早于特定阈值的文档,并在输出阶段删除这些旧数据。执行配置时,需确保Logstash与Elasticsearch连接正常,并监控日志以确保操作安全。定期执行此操作可确保旧数据不会过多积累。总之,Logstash的日期过滤器提供了一种简单而高效的方法,帮助管理和优化Elasticsearch中的数据。
123 0
|
SQL 消息中间件 存储
Hue和Kibana有什么区别?Logstash和kafka区别?
本文分享几款hive可视化工具,然后区分一下Hue和Kibana,区分一下Logstash和kafka
222 1
|
NoSQL Redis 索引
Filebeat收集日志数据传输到Redis,通过Logstash来根据日志字段创建不同的ES索引
Filebeat收集日志数据传输到Redis,通过Logstash来根据日志字段创建不同的ES索引
199 0
|
6月前
|
消息中间件 监控 Kafka
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
359 3
|
监控 容器
Filebeat配置顶级字段Logstash在output输出到Elasticsearch中的使用
Filebeat配置顶级字段Logstash在output输出到Elasticsearch中的使用
269 0
|
存储 算法 数据可视化
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash 1
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash
81 0
|
消息中间件 监控 NoSQL
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash 2
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash
256 0
|
Java Ruby
Error:在安装elasticsearch和logstash程序出现的报错
Error:在安装elasticsearch和logstash程序出现的报错
303 0
|
消息中间件 Java Kafka
filebeat+kafka+logstash+elasticsearch+kibana实现日志收集解决方案
filebeat+kafka+logstash+elasticsearch+kibana实现日志收集解决方案
241 0
|
数据采集 Java 应用服务中间件
1分钟系列-Filebeat 采集数据保存到 Elasticsearch
1分钟系列-Filebeat 采集数据保存到 Elasticsearch

热门文章

最新文章