快速用ELK搭建日志收集平台

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速用ELK搭建日志收集平台

elasitc.co


ELK是elastic.co发布的三个产品,分别是elasticsearch, logstash, kibana,分别用来做搜索引擎、日志收集和报表展现。这三个东西经常被用到的业务场景就是日志收集展现。

本文将从实用角度出发,教你如何用ELK快速搭建一个日志收集平台。

elasticsearch

  • 运行elasticsearch
    ./bin/elasticsearch -d
  • 测试运行状态
curl localhost:9200
  • 创建索引
    elasticsearch里面的表叫做索引(index),可以通过http请求的方式来创建索引,创建的方式是通过put请求,curl脚本如下:
curl -X PUT \
  http://localhost:9200/test1 \
  -H 'cache-control: no-cache' \
  -H 'postman-token: 438a164f-2ded-b73e-b2ab-e53dbd7f800c' \
  -d '{
    "settings" : {
        "index" : {
            "number_of_shards" : 3, 
            "number_of_replicas" : 2 
        }
    }
}'
  • 常见问题
  • 启动失败

ERROR: bootstrap checks failed
      max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

这个问题是操作系统的vm.max_map_count参数设置太小导致的,解决方法:

$ sudo sysctl -w vm.max_map_count=262144
      vm.max_map_count = 262144

logstash

  • 运行logstash
./bin/logstash -e 'input { stdin {} } output {stdout{}}'
  • 如果运行正常,则输入hello的运行结果如下:
hello
2017-06-21T10:12:40.471Z MacBook-Pro.local hello
  • 一般我们都是将配置写到配置文件,用-f参数来运行,如:
./bin/logstash -f test.config
  • 其中test.config里面包含的内容就是之前-e参数所指向的运行参数。
  • 搭建http接口和json格式化
    logstash配置文件由三个部分组成,上面已经提到了input和output两个部分,另外还有一个是filter,分别代表输入->过滤->输出,现在我们配置一个http输入、通过json格式化、输出到elasticsearch的logstash配置,配置文件内容如下:
dengzongrongdeMacBook-Pro:logstash-5.4.2 RoyDeng$ cat test.config
input {
          http {
                port => 31311
                type => "http"
                codec => "json"
          }
}
filter {
        json {
                source => "message"
        }
}
output {
          elasticsearch {
              hosts => "localhost"
              index => "test"
          }
}
  • 通过post请求,可以看到elasticsearch里面增加了数据,post请求如下:
curl -X POST \
  http://localhost:31311/ \
  -H 'cache-control: no-cache' \
  -H 'postman-token: 888428ef-ee19-1030-9de4-6c4b333e4bca' \
  -d '{"action":"test"}'

Kibana

  • 配置运行kibana
    下载kibana
    修改config/kibana.yml配置文件,修改elastic search url,如下:
# The URL of the Elasticsearch instance to use for all your queries.
elasticsearch.url: "http://localhost:9200"
  • 然后运行./bin/kibana启动kibana
  • 配置报表

kibana_config.png

上面显示的Time-field表示日志的时间,这个参数是必须的,因为kibana展现的一个重要维度就是时间,你上传的数据必须有一个字段代表时间。

当然,如果你是用logstash上传的数据,那么这个字段不需要你配置,logstash会自动帮你加上,但是logstash帮你加的时间是上传的时间。如果你不是希望用上传时间作为时间维度的话,这个字段就需要你上传的时候自己加上了。

然后在首页就能看到刚刚上传上去的数据了

kibana-dashboard.png

以上就是快速搭建日志平台的方法,后续会陆续补充ELK框架的一些高级用法,欢迎大家一起讨论。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
22天前
|
存储 运维 监控
超越传统模型:从零开始构建高效的日志分析平台——基于Elasticsearch的实战指南
【10月更文挑战第8天】随着互联网应用和微服务架构的普及,系统产生的日志数据量日益增长。有效地收集、存储、检索和分析这些日志对于监控系统健康状态、快速定位问题以及优化性能至关重要。Elasticsearch 作为一种分布式的搜索和分析引擎,以其强大的全文检索能力和实时数据分析能力成为日志处理的理想选择。
77 6
|
2月前
|
存储 消息中间件 网络协议
日志平台-ELK实操系列(一)
日志平台-ELK实操系列(一)
|
2天前
|
存储 监控 安全
|
3月前
|
消息中间件 Kafka 开发工具
rsyslog+ELK收集Cisco日志
rsyslog+ELK收集Cisco日志
|
3月前
|
存储 消息中间件 监控
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统ELK、日志收集分析
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统、日志收集分析。日志级别从小到大的关系(优先级从低到高): ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF 低级别的会输出高级别的信息,高级别的不会输出低级别的信息
|
3月前
|
监控 Java Serverless
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作
|
3月前
|
存储 数据可视化 Linux
在Linux中,如何使用ELK进行日志管理和分析?
在Linux中,如何使用ELK进行日志管理和分析?
|
25天前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
165 3
|
3月前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
121 3
|
26天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1601 14