ELK 日志服务的搭建过程

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
云数据库 Tair(兼容Redis),内存型 2GB
简介: 主要介绍 elasticsearch、kibna、logstash 和 filebeat 在 centos7.9 上的部署。

0. java

# 确认java版本1.8以上
java -version
# 安装
yum -y install java-1.8.0-openjdk

1. elasticsearch

# 下载包
wget https://repo.huaweicloud.com/elasticsearch/7.7.1/elasticsearch-7.7.1-linux-x86_64.tar.gz
# 解压到 /data/soft 目录
tar -xzvf elasticsearch-7.7.1-linux-x86_64.tar.gz -C /data/soft/
# 创建专用用户和属组
groupadd es
useradd es -g es
# 用户权限
cd /data
mkdir -p soft/es/es_data
mkdir -p soft/es/es_logs
chown -R es:es soft/
# 修改es配置
vim /data/soft/elasticsearch-7.7.1/config/elasticsearch.yml
---
cluster.name: elk_es
node.name: elk_es_node_1
path.data: /data/soft/es/es_data
path.logs: /data/soft/es/es_logs
network.host: ["127.0.0.1", "公网ip"]
network.publish_host: 127.0.0.1
http.port: 9200
cluster.initial_master_nodes: ["elk_es_node_1"] #必须与node.name一致
---
# 启动es. 可加守护进程参数 -d
cd /data/soft/elasticsearch-7.7.1/
./bin/elasticsearch

解决报错

max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]

解释:elasticsearch用户拥有的可创建文件描述的权限太低,至少需要65536;

# 查看当前用户的软限制
ulimit -Sn
# 查看当前用户的硬限制
ulimit -Hn
# vim /etc/security/limits.conf 在最后面追加下面内容
es hard nofile 65536 
es soft nofile 65536

max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

解释:vm.max_map_count的值太小了。需要修改到262144

# 修改sysctl.conf
vim etc/sysctl.conf
# 添加内容
vm.max_map_count = 262144
# 修改生效
/sbin/sysctl -p

2. kibana

# 下载包
wget https://repo.huaweicloud.com/kibana/7.7.1/kibana-7.7.1-linux-x86_64.tar.gz
# 解压
tar -xzvf kibana-7.7.1-linux-x86_64.tar.gz -C /data/soft/
# 修改配置
vim /data/soft/kibana-7.7.1-linux-x86_64/config/kibana.yml
---
server.port: 5601
server.host: "127.0.0.1"
server.name: "kibana_elk"
elasticsearch.hosts: ["http://127.0.0.1:9200"]
---
# 后台启动
nohup /data/soft/kibana-7.7.1-linux-x86_64/bin/kibana >> /data/soft/kibana-7.7.1-linux-x86_64/nohup.out 2>&1 &
# 此时应该能通过 IP:9200 访问到kibana界面,注意防火墙端口配置

2.1 配置 kibana 域名访问

# vim /etc/nginx/conf.d/elk.conf
---
server {
    listen       80;
    server_name  elk.domain.com;
    access_log  /data/logs/kibana_access.log main;
    error_log   /data/logs/kibana_error.log error;
    location / {
        auth_basic "elk auth";
        auth_basic_user_file /etc/nginx/htpasswd;
        proxy_pass http://127.0.0.1:5601;
        }
    }
---
nginx -t
nginx -s reload

2.2 访问 kibana 配置索引模板 Index Templates

Index pattern: project_logs-*

3. logstash

# 下载包
wget https://repo.huaweicloud.com/logstash/7.7.1/logstash-7.7.1.tar.gz
# 解压
tar -xzvf logstash-7.7.1.tar.gz -C /data/soft
# 编写配置 
cd /data/soft/logstash-7.7.1/config/elk_log.conf
---
input {
    redis {
        data_type => "list"
        host => "redis_server_ip"
        db => "0"
        port => "6379"
        password => "redis_pwd"
        key => "redis_list_key"
    }
}
filter {
    ruby {
        code => "
            log_info=event.get('log')
            if log_info and log_info['file']
                file_path =  log_info['file']['path']
                dir_path=File::dirname(file_path)
                dir_path=dir_path.delete_prefix('/data')
                f_abs_name=dir_path.concat('/')
                f_abs_name=f_abs_name.concat(event.get('host')['name'])
                f_abs_name=f_abs_name.concat('.')
                file_name=File::basename(file_path)
                if file_name.length > 200
                    file_name='file_name_too_long.log'
                end
                f_abs_name=f_abs_name.concat(file_name)
                if event.get('@metadata') != nil
                    metadata_hash=event.get('@metadata')
                else
                    metadata_hash=Hash.new
                end
                metadata_hash['f_name'] = File::basename(file_path)
                metadata_hash['f_abs_name'] = f_abs_name
                dir_arr=file_path.split('/')
                if dir_arr.at(2) == 'logs'
                    metadata_hash['log_type'] = dir_arr.at(3)
                end
                event.set('@metadata', metadata_hash)
            end
        "
    }
}
output {
    # 日志同步到es
    if [@metadata][log_type] == "project_logs"{
        elasticsearch {
            hosts => ["http://127.0.0.1:9200"]
            index => "project_logs-%{+YYYY.MM.dd}"
        }
    }
}
---
# 后台启动
nohup /data/soft/logstash-7.7.1/bin/logstash -f /data/soft/logstash-7.7.1/config/elk_log.conf >> /data/soft/logstash-7.7.1/nohup.out 2>&1 &
# 此时 logstash 会去redis里面取待同步的数据

4. filebeat

在待同步日志的服务器上安装

# 下载包
wget https://repo.huaweicloud.com/filebeat/7.7.1/filebeat-7.7.1-linux-x86_64.tar.gz
# 解压
tar -xzvf filebeat-7.7.1-linux-x86_64.tar.gz -C /data/soft/
# 编辑配置
vim /data/soft/filebeat-7.7.1-linux-x86_64/elk_log.yml
---
filebeat.inputs:
    - type: log
    enabled: true
    paths:
    - /data/logs/project_logs*/*.log
    encoding: utf-8
    json.keys_under_root: true
    json.overwrite_keys: true
output.redis:
    enabled: true
    hosts: ["redis_server_ip:6379"]
    key: redis_list_key
    password: redis_pwd
    db: 0
    worker: 2
    loadbalance: false
    timeout: 10s
    max_retries: 3
    bulk_max_size: 2048
---
# 启动
/data/soft/filebeat-7.7.1-linux-x86_64/filebeat -c elk_log.yml
# 此时filebeat会监听文件变更,并将信息输出到redis,以通过logstash同步到elasticsearch。
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
3月前
|
存储 消息中间件 网络协议
日志平台-ELK实操系列(一)
日志平台-ELK实操系列(一)
|
1月前
|
存储 监控 安全
|
4月前
|
消息中间件 Kafka 开发工具
rsyslog+ELK收集Cisco日志
rsyslog+ELK收集Cisco日志
|
4月前
|
存储 消息中间件 监控
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统ELK、日志收集分析
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统、日志收集分析。日志级别从小到大的关系(优先级从低到高): ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF 低级别的会输出高级别的信息,高级别的不会输出低级别的信息
|
4月前
|
存储 数据可视化 Linux
在Linux中,如何使用ELK进行日志管理和分析?
在Linux中,如何使用ELK进行日志管理和分析?
|
4月前
|
数据可视化 Java API
如何在项目中快速引入Logback日志并搭配ELK使用
如何在项目中快速引入Logback日志并搭配ELK使用
|
4月前
|
存储 监控 Ubuntu
一键搞定:用脚本轻松部署ELK,让日志分析变得简单又高效
【8月更文挑战第13天】ELK栈由Elasticsearch、Logstash和Kibana组成,用于日志存储、解析及展示,是大数据领域广泛采用的日志解决方案。鉴于其安装配置复杂,本文提供了一个适用于Ubuntu 16.04的ELK自动安装Shell脚本示例。脚本首先确保Java环境安装,接着添加Elastic.co的APT仓库并安装ELK组件,最后启动所有服务。通过自动化流程,简化部署工作,减少人为错误,提升效率。实际应用中还需根据具体需求调整配置和服务设置。
94 0
|
1月前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
294 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
11天前
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
|
2月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
322 3