ELK中如何搭建客户端客户端如何将日志发送给服务端的logstash

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:

【背景】

我们要统一收集日志,统一分析,统一在一个平台上搜索过滤日志!在上一篇中已经完成了ELK的搭建,那么该如何将每台客户端的日志集中到ELK平台中呢?


【本系统介绍】


ELK -- 192.168.100.10  (这个地方要有FQDN 创建SSL证书的时候需要配置FQDN,www.elk.com)


被收集日志的客户端(也叫 logstash shipper)  --- 192.168.100.13



ELK环境:

[root@master ~]# ifconfig | grep 192.168.100  

          inet addr:192.168.100.10  Bcast:192.168.100.255  Mask:255.255.255.0

[root@master ~]# cat /etc/hosts | grep 192.168.100.10

192.168.100.10 www.elk.com

[root@master ~]# cat /etc/issue 

CentOS release 6.4 (Final)

Kernel \r on an \m



客户端(logstash shipper)环境:

[root@slave ~]# ifconfig | grep "192.168."  

          inet addr:192.168.100.13  Bcast:192.168.100.255  Mask:255.255.255.0

[root@slave ~]# cat /etc/hosts | grep 192.168.100.10

192.168.100.10 www.elk.com

[root@slave ~]# cat /etc/issue

CentOS release 6.4 (Final)

Kernel \r on an \m



【client 和 server是如和通信的】

参考:

http://udn.yyuap.com/doc/logstash-best-practice-cn/get_start/full_config.html




【通信架构图】


server端中的logstash配置文件(即-f后面指定的文件)

/usr/local/logstash/bin/logstash -f /usr/local/logstash/etc/logstash.conf 


一定有一个input端和一个output端

input端可以来自本地文件,也可以来自其他机器通过网路(端口)传输过来的


所以logstash的C/S架构就要通过网络进行传输


wKioL1cx6AjCRDLpAAArxORZbuk807.png



原理解释客户端安装一个logstash-forwarder软件,将指定的文件中的日志输出到logstash 中(他已经有端口在监控并接收来自forwarder客户端的输入)




【client传输到server的方案】

参考:http://udn.yyuap.com/doc/logstash-best-practice-cn/ecosystem/logstash_forwarder.html




【server端的配置】


1 首先需要创建CA证书为Server

cd /etc/pki/tls/

openssl req -subj '/CN=www.elk.com/' -x509 -days 3650 -batch -nodes -newkey rsa:2048 -keyout private/logstash-forwarder.key -out certs/logstash-forwarder.crt


在将logstash-forwarder.crt拷贝到client端

scp certs/logstash-forwarder.crt 192.168.100.13:/etc/pki/tls/certs/


2 server段的logstash.conf的配置

[root@master tls]# cat /usr/local/logstash/etc/logstash.conf 

input {

  file {

    type =>"syslog"

     path => ["/var/log/messages", "/var/log/secure" ]

  }


  lumberjack {

    port => 5000

    type => "logs"

    ssl_certificate => "/etc/pki/tls/certs/logstash-forwarder.crt"

    ssl_key => "/etc/pki/tls/private/logstash-forwarder.key"

  }

}

output {

  stdout { codec=> rubydebug }

  elasticsearch {hosts => "192.168.100.10:9200" }

}




(标黄色的是,这种架构中一定要得配置,解释一下连个字段)

lumberjack 是 logstash-forwarder 还没用 Golang 重写之前的名字

type => "anything"  type任意指定,无所谓





3 启动logstash

/usr/local/logstash/bin/logstash -f /usr/local/logstash/etc/logstash.conf &

或者使用screen命令一让其一直在后台运行




【客户端的安装forwarder和配置】

下载软件

wget https://download.elastic.co/logstash-forwarder/binaries/logstash-forwarder-0.4.0-1.x86_64.rpm


安装

yum localinstall logstash-forwarder-0.4.0-1.x86_64.rpm 


注意两个文件

一个配置文件 /etc/logstash-forwarder.conf

一个日志目录 /var/log/logstash-forwarder/


保存原始文件

cp /etc/logstash-forwarder.conf  /etc/logstash-forwarder.conf.orig


修改logstash-forwarder.conf为

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
{
   "network": {
     "servers": [ "www.elk.com:5000" ],
     "ssl ca": "/etc/pki/tls/certs/logstash-forwarder.crt",
     "timeout": 15
   },
  
  
   "files": [
     {
       "paths": [
         "/var/log/messages",
         "/var/log/secure"
       ],
       "fields": { "type": "syslog" }
     }, {
       "paths": [
         "其他路径的文件"
       ],
       "fields": { "type": "nginx" }
     }
   ]
}




注意:

1
servers": [ "www.elk.com:5000" ]

一定要写域名,不能写server端的IP,因为写IP不能通过证书的认知

"ssl ca" 一定要正确写明路径




【验证】

客户端执行

1
[root@slave ~] # echo "我是logstash的客户端,通过forward到server端的" >> /var/log/secure

查看kibana前端


wKiom1cx667hhTKmAAAxCi84a7g583.png




【接下来研究啥】

1 elk的index

2 多日志文件

3 logstash中的配置文件详解

本文转自残剑博客51CTO博客,原文链接http://blog.51cto.com/cuidehua/1771979如需转载请自行联系原作者

cuizhiliang
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
4月前
|
存储 消息中间件 网络协议
日志平台-ELK实操系列(一)
日志平台-ELK实操系列(一)
|
1月前
|
监控 应用服务中间件 定位技术
要统计Nginx的客户端IP,可以通过分析Nginx的访问日志文件来实现
要统计Nginx的客户端IP,可以通过分析Nginx的访问日志文件来实现
156 3
|
2月前
|
存储 JSON Java
ELK 圣经:Elasticsearch、Logstash、Kibana 从入门到精通
ELK是一套强大的日志管理和分析工具,广泛应用于日志监控、故障排查、业务分析等场景。本文档将详细介绍ELK的各个组件及其配置方法,帮助读者从零开始掌握ELK的使用。
|
2月前
|
存储 监控 安全
|
2月前
|
存储 JSON 监控
开源日志分析Logstash
【10月更文挑战第22天】
75 1
|
5月前
|
消息中间件 Kafka 开发工具
rsyslog+ELK收集Cisco日志
rsyslog+ELK收集Cisco日志
|
5月前
|
存储 消息中间件 监控
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统ELK、日志收集分析
Java日志详解:日志级别,优先级、配置文件、常见日志管理系统、日志收集分析。日志级别从小到大的关系(优先级从低到高): ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF 低级别的会输出高级别的信息,高级别的不会输出低级别的信息
|
5月前
|
网络安全
【Azure Service Bus】启用诊断日志来获取客户端访问Azure Service Bus的IP地址 [2024-03-26 实验结果失败]
【Azure Service Bus】启用诊断日志来获取客户端访问Azure Service Bus的IP地址 [2024-03-26 实验结果失败]
|
8月前
|
存储 监控 数据可视化
日志分析对决:揭示 ELK 与 GrayLog 的优势和差异
日志分析对决:揭示 ELK 与 GrayLog 的优势和差异
1858 0
|
5月前
|
运维 监控 Ubuntu
一键启动日志魔法:揭秘ELK自动安装脚本的神秘面纱!
【8月更文挑战第9天】在数据驱动时代,高效处理日志至关重要。ELK Stack(Elasticsearch、Logstash、Kibana)是强大的日志分析工具,但其复杂的安装配置常让初学者望而却步。本文介绍如何编写ELK自动安装脚本,简化部署流程。脚本适用于Ubuntu系统,自动完成ELK下载、安装及基本配置,包括依赖项安装、服务启动及自启设置,极大降低了使用门槛,助力运维人员和开发者轻松构建日志分析平台。
190 6