快速用ELK搭建日志收集平台

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速用ELK搭建日志收集平台

elasitc.co


ELK是elastic.co发布的三个产品,分别是elasticsearch, logstash, kibana,分别用来做搜索引擎、日志收集和报表展现。这三个东西经常被用到的业务场景就是日志收集展现。

本文将从实用角度出发,教你如何用ELK快速搭建一个日志收集平台。

elasticsearch

  • 运行elasticsearch
    ./bin/elasticsearch -d
  • 测试运行状态
curl localhost:9200
  • 创建索引
    elasticsearch里面的表叫做索引(index),可以通过http请求的方式来创建索引,创建的方式是通过put请求,curl脚本如下:
curl -X PUT \
  http://localhost:9200/test1 \
  -H 'cache-control: no-cache' \
  -H 'postman-token: 438a164f-2ded-b73e-b2ab-e53dbd7f800c' \
  -d '{
    "settings" : {
        "index" : {
            "number_of_shards" : 3, 
            "number_of_replicas" : 2 
        }
    }
}'
  • 常见问题
  • 启动失败

ERROR: bootstrap checks failed
      max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

这个问题是操作系统的vm.max_map_count参数设置太小导致的,解决方法:

$ sudo sysctl -w vm.max_map_count=262144
      vm.max_map_count = 262144

logstash

  • 运行logstash
./bin/logstash -e 'input { stdin {} } output {stdout{}}'
  • 如果运行正常,则输入hello的运行结果如下:
hello
2017-06-21T10:12:40.471Z MacBook-Pro.local hello
  • 一般我们都是将配置写到配置文件,用-f参数来运行,如:
./bin/logstash -f test.config
  • 其中test.config里面包含的内容就是之前-e参数所指向的运行参数。
  • 搭建http接口和json格式化
    logstash配置文件由三个部分组成,上面已经提到了input和output两个部分,另外还有一个是filter,分别代表输入->过滤->输出,现在我们配置一个http输入、通过json格式化、输出到elasticsearch的logstash配置,配置文件内容如下:
dengzongrongdeMacBook-Pro:logstash-5.4.2 RoyDeng$ cat test.config
input {
          http {
                port => 31311
                type => "http"
                codec => "json"
          }
}
filter {
        json {
                source => "message"
        }
}
output {
          elasticsearch {
              hosts => "localhost"
              index => "test"
          }
}
  • 通过post请求,可以看到elasticsearch里面增加了数据,post请求如下:
curl -X POST \
  http://localhost:31311/ \
  -H 'cache-control: no-cache' \
  -H 'postman-token: 888428ef-ee19-1030-9de4-6c4b333e4bca' \
  -d '{"action":"test"}'

Kibana

  • 配置运行kibana
    下载kibana
    修改config/kibana.yml配置文件,修改elastic search url,如下:
# The URL of the Elasticsearch instance to use for all your queries.
elasticsearch.url: "http://localhost:9200"
  • 然后运行./bin/kibana启动kibana
  • 配置报表

kibana_config.png

上面显示的Time-field表示日志的时间,这个参数是必须的,因为kibana展现的一个重要维度就是时间,你上传的数据必须有一个字段代表时间。

当然,如果你是用logstash上传的数据,那么这个字段不需要你配置,logstash会自动帮你加上,但是logstash帮你加的时间是上传的时间。如果你不是希望用上传时间作为时间维度的话,这个字段就需要你上传的时候自己加上了。

然后在首页就能看到刚刚上传上去的数据了

kibana-dashboard.png

以上就是快速搭建日志平台的方法,后续会陆续补充ELK框架的一些高级用法,欢迎大家一起讨论。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
3月前
|
存储 运维 监控
超越传统模型:从零开始构建高效的日志分析平台——基于Elasticsearch的实战指南
【10月更文挑战第8天】随着互联网应用和微服务架构的普及,系统产生的日志数据量日益增长。有效地收集、存储、检索和分析这些日志对于监控系统健康状态、快速定位问题以及优化性能至关重要。Elasticsearch 作为一种分布式的搜索和分析引擎,以其强大的全文检索能力和实时数据分析能力成为日志处理的理想选择。
208 6
|
4月前
|
存储 消息中间件 网络协议
日志平台-ELK实操系列(一)
日志平台-ELK实操系列(一)
|
2月前
|
存储 监控 安全
|
5月前
|
消息中间件 Kafka 开发工具
rsyslog+ELK收集Cisco日志
rsyslog+ELK收集Cisco日志
|
5月前
|
存储 消息中间件 监控
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统ELK、日志收集分析
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统、日志收集分析。日志级别从小到大的关系(优先级从低到高): ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF 低级别的会输出高级别的信息,高级别的不会输出低级别的信息
|
5月前
|
监控 Java Serverless
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作
|
5月前
|
存储 数据可视化 Linux
在Linux中,如何使用ELK进行日志管理和分析?
在Linux中,如何使用ELK进行日志管理和分析?
|
8月前
|
存储 监控 数据可视化
日志分析对决:揭示 ELK 与 GrayLog 的优势和差异
日志分析对决:揭示 ELK 与 GrayLog 的优势和差异
1709 0
|
8月前
|
存储 Prometheus 监控
Prometheus vs. ELK Stack:容器监控与日志管理工具的较量
随着容器化技术的广泛应用,容器监控与日志管理成为了关键任务。本文将对两种常用工具进行比较与选择,分别是Prometheus和ELK Stack。Prometheus是一款开源的监控系统,专注于时序数据的收集和告警。而ELK Stack则是一套完整的日志管理解决方案,由Elasticsearch、Logstash和Kibana三个组件组成。通过比较它们的特点、优势和适用场景,读者可以更好地了解如何选择适合自己需求的工具。
|
5月前
|
运维 监控 Ubuntu
一键启动日志魔法:揭秘ELK自动安装脚本的神秘面纱!
【8月更文挑战第9天】在数据驱动时代,高效处理日志至关重要。ELK Stack(Elasticsearch、Logstash、Kibana)是强大的日志分析工具,但其复杂的安装配置常让初学者望而却步。本文介绍如何编写ELK自动安装脚本,简化部署流程。脚本适用于Ubuntu系统,自动完成ELK下载、安装及基本配置,包括依赖项安装、服务启动及自启设置,极大降低了使用门槛,助力运维人员和开发者轻松构建日志分析平台。
176 6