【日志审计】极易上手搭建自己日志采集服务器分析日志(winlogbeat+Elasticsearch+Kibana)

简介: 【日志审计】极易上手搭建自己日志采集服务器分析日志(winlogbeat+Elasticsearch+Kibana)

00前言:


需求是小编需要采集windows 上面的系统日志,所以要搭建个日志采集系统

首先说下什么是ELK呢?


ELK 是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch、


Logstash 和 Kibana。


  • Elasticsearch 是一个搜索和分析引擎。
  • Logstash 是服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到诸如 Elasticsearch 等存储库中。
  • Kibana 则可以让用户在 Elasticsearch 中使用图形和图表对数据进行可视化。

640.png

不过小编采用的是winlogbeat + ES + Kibina的组合进行日志收集,优点就是轻量级,因为去掉了笨重的logstash, 占用资源更少。

640.png

如上图所示,该ELK框架由beats(这里我们采用winlogbeat)+elasticsearch+kibana构成,这个框架比较简单,入门级的框架。

01准备工作:


Centos7虚拟机一台作为服务端Windows 虚拟机一台作为客户端

640.png


各软件包下载好并上传到Centos7服务上/opt目录下


02关闭selinux:


临时关闭selinux:

获取当前selinux状态  getenforce      Enforcing为开启,Permissive为关闭

640.png

临时关闭:setenforce 0

640.png

永久关闭selinux:vim /etc/sysconfig/selinux

SELINUX=enforcing 替换为SELINUX=disabled

640.png

重启机器后后,运行命令sestatus

SELinux status :  disabled

640.png



03部署JDK:


首先进入/opt目录然后做如下操作


[root@localhost /]# tar zxvf jdk1.8.0_131.tar.gz[root@localhost /]# mv jdk1.8.0_131 /usr/[root@localhost /]# vim /etc/profile

添加


export JAVA_HOME=/usr/jdk1.8.0_131/export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOMR/bin

640.png

[root@localhost /]# source /etc/profile[root@localhost /]#  java –version

640.png

这样JDK就安装好了



04部署Elasticsearch:


[root@localhost /]# tar xzf elasticsearch-5.3.0.tar.gz[root@localhost /]# mv elasticsearch-5.3.0 /usr/local/elasticsearch[root@localhost /]#  ll /usr/local/elasticsearch/

640.png

[root@localhost /]#  useradd  elk     创建用户[root@localhost /]#  chown -R elk /usr/local/elasticsearch/[root@localhost /]#  ll /usr/local/elasticsearch/

640.png


[root@localhost /]# vim  /etc/security/limits.conf

添加


* soft nofile 65536* hard nofile 65536

640.png


[root@localhost /]# vim /etc/security/limits.d/20-nproc.conf

添加


soft  nproc  2048

640.png


root@localhost /]# vi /etc/sysctl.conf

添加

640.png


[root@localhost /]# sysctl –p

640.png

注意:做完几步后 建议重启系统


[root@localhost /]# cd /usr/local/elasticsearch/config/[root@localhost config]# vim jvm.options

640.png

注释:如果你虚拟机是2G以上不需要改


[root@localhost config]# vim elasticsearch.yml

1.修改监听的网络地址为0.0.0.0

640.png

改成

640.png

2.开启监听的端口

640.png

去掉#

640.png

3. data,用于存放索引分片数据文件,logs,用于存放日志

640.png640.png


文件夹如果没有需要自己创建。注意文件夹创建好后chown –R elk data和logs下。


[root@localhost /]# su - elk       进入elk用户启动[elk@localhost ~]$ /usr/local/elasticsearch/bin/elasticsearch -d    启动[elk@localhost ~]$ tail -fn 50 /usr/local/elasticsearch/logs/elasticsearch.log

640.png

或看端口 9200  9300 是否启动了


[root@localhost elk]# netstat -ntlp|grep -E "9200|9300"

640.png

浏览器中输入:http://IP:9200测试是否正常(以下为正常)


640.png

05部署Kibana:


[root@localhost /]# tar xzf kibana-5.3.0-linux-x86_64.tar.gz[root@localhost /]# mv kibana-5.3.0-linux-x86_64 /usr/local/kibana[root@localhost /]#  cd /usr/local/kibana/config/[root@localhost config]# vim kibana.yml

1.修改监听的网络地址为0.0.0.0

640.png

改成

640.png

去掉#号(改成EC服务器的ip地址) 这台和EC在一起所以不用改 如果有对个分布式集群用,隔开

640.png

2.开启监听的端口

640.png

640.png


[root@localhost config]# cd ..[root@localhost kibana]# cd bin/  进入bin目录[root@localhost bin]#  nohup ./kibana &      后台启动 [root@localhost bin]# netstat -tnlp|grep -E "9200|9300|5601"

640.png

浏览器http://192.168.125.139:5601

640.png

至此服务端搭建完毕。


06部署Winlogbeat客户端:


1.首先把下载好的文件上传的客户端机器上

640.png

2.解压到C:\Program Files

640.png

3.安装winlogbeat服务

640.png

重新命名文件夹为winlogbeat

用管理员身份打开windows的 powershell

640.png

  • 运行以下命令来安装服务


C:\Users\Administrator> cd 'C:\Program Files\Winlogbeat'C:\Program Files\Winlogbeat> .\install-service-winlogbeat.ps1

640.png

如果在系统上禁用了脚本执行,则需要为当前会话设置执行策略以允许脚本运行。


PowerShell.exe -ExecutionPolicy UnRestricted -File .\install-service-winlogbeat.ps1.

640.png

安装好后即可在系统服务中看到了

640.png

然后启动服务

640.png

4.配置winlogbeat.yml文件

用winlogbeat收集日志,发送到elasticsearch
修改配置文件 :winlogbeat.yml
修改tags信息,因为winlogbeat没有ip自带,查看日志时不方便区分,顾在此字段中添加ip+mac

640.png

填写要输出到es的地址

640.png

修改此处即可

640.png

这里是要采集的日志类型,默认已配置好无需修改

5.重启服务

640.png

最后登录kibana配置winlogbeat索引查看获取的日志

640.png

640.png

可以看到已经接收到刚才开启winlogbeat服务的日志信息了

640.png

Tags中也有所填信息方便以后索引查看

640.png

至此实验完成。

相关实践学习
以电商场景为例搭建AI语义搜索应用
本实验旨在通过阿里云Elasticsearch结合阿里云搜索开发工作台AI模型服务,构建一个高效、精准的语义搜索系统,模拟电商场景,深入理解AI搜索技术原理并掌握其实现过程。
ElasticSearch 最新快速入门教程
本课程由千锋教育提供。全文搜索的需求非常大。而开源的解决办法Elasricsearch(Elastic)就是一个非常好的工具。目前是全文搜索引擎的首选。本系列教程由浅入深讲解了在CentOS7系统下如何搭建ElasticSearch,如何使用Kibana实现各种方式的搜索并详细分析了搜索的原理,最后讲解了在Java应用中如何集成ElasticSearch并实现搜索。  
相关文章
|
10月前
|
监控 Kubernetes Go
日志采集效能跃迁:iLogtail 到 LoongCollector 的全面升级
LoongCollector 在日志场景中实现了全面的重磅升级,从功能、性能、稳定性等各个方面均进行了深度优化和提升,本文我们将对 LoongCollector 的升级进行详细介绍。
752 87
|
8月前
|
数据采集 存储 大数据
大数据之路:阿里巴巴大数据实践——日志采集与数据同步
本资料全面介绍大数据处理技术架构,涵盖数据采集、同步、计算与服务全流程。内容包括Web/App端日志采集方案、数据同步工具DataX与TimeTunnel、离线与实时数仓架构、OneData方法论及元数据管理等核心内容,适用于构建企业级数据平台体系。
786 1
|
存储 运维 开发工具
警惕日志采集失败的 6 大经典雷区:从本地管理反模式到 LoongCollector 标准实践
本文探讨了日志管理中的常见反模式及其潜在问题,强调科学的日志管理策略对系统可观测性的重要性。文中分析了6种反模式:copy truncate轮转导致的日志丢失或重复、NAS/OSS存储引发的采集不一致、多进程写入造成的日志混乱、创建文件空洞释放空间的风险、频繁覆盖写带来的数据完整性问题,以及使用vim编辑日志文件导致的重复采集。针对这些问题,文章提供了最佳实践建议,如使用create模式轮转日志、本地磁盘存储、单线程追加写入等方法,以降低日志采集风险,提升系统可靠性。最后总结指出,遵循这些实践可显著提高故障排查效率和系统性能。
1643 21
|
9月前
|
存储 运维 开发工具
警惕日志采集失败的 6 大经典雷区:从本地管理反模式到 LoongCollector 标准实践
本文总结了日志管理中的六大反模式及优化建议,涵盖日志轮转、存储选择、并发写入等常见问题,帮助提升日志采集的完整性与系统可观测性,适用于运维及开发人员优化日志管理策略。
341 5
|
5月前
|
数据采集 缓存 大数据
【赵渝强老师】大数据日志采集引擎Flume
Apache Flume 是一个分布式、可靠的数据采集系统,支持从多种数据源收集日志信息,并传输至指定目的地。其核心架构由Source、Channel、Sink三组件构成,通过Event封装数据,保障高效与可靠传输。
364 1
|
10月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
本文介绍了阿里集团A+流量分析平台的日志查询优化方案,针对万亿级日志数据的写入与查询挑战,提出基于Flink、Paimon和StarRocks的技术架构。通过Paimon存储日志数据,结合StarRocks高效计算能力,实现秒级查询性能。具体包括分桶表设计、数据缓存优化及文件大小控制等措施,解决高并发、大数据量下的查询效率问题。最终,日志查询耗时从分钟级降至秒级,显著提升业务响应速度,并为未来更低存储成本、更高性能及更多业务场景覆盖奠定基础。
|
6月前
|
存储 Kubernetes 监控
Kubernetes日志管理:使用Loki进行日志采集
通过以上步骤,在Kubernetes环境下利用LoKi进行有效率且易于管理地logs采集变成可能。此外,在实施过程中需要注意版本兼容性问题,并跟进社区最新动态以获取功能更新或安全补丁信息。
449 16
|
7月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
A+流量分析平台是阿里集团统一的全域流量数据分析平台,致力于通过埋点、采集、计算构建流量数据闭环,助力业务提升流量转化。面对万亿级日志数据带来的写入与查询挑战,平台采用Flink+Paimon+StarRocks技术方案,实现高吞吐写入与秒级查询,优化存储成本与扩展性,提升日志分析效率。
1008 1
|
11月前
|
监控 算法 测试技术
突破极限: 高负载场景下的单机300M多行正则日志采集不是梦
在当今数字化时代,日志数据已成为企业 IT 运营和业务分析的关键资源。然而,随着业务规模的扩大和系统复杂度的提升,日志数据的体量呈现爆发式增长,给日志采集和处理系统带来了巨大挑战。
685 101
|
存储 监控 安全
日志审计是什么?为什么企业需要日志审计?
日志审计是对信息系统中产生的日志进行收集、分析和存储的过程,记录系统活动如用户登录、操作行为等。企业通过日志审计可满足合规要求(如金融、医疗行业的法规),及时发现安全威胁(如异常登录、数据泄露),并为事故调查提供依据。工具如EventLog Analyzer能帮助企业生成合规报表,确保符合PCI DSS、HIPAA等标准,并支持实时监控与存档分析,保障网络安全与数据隐私。
914 2

热门文章

最新文章