LogStash实践日志分析二:收集数据、入库、数据分析和kibana展示

简介:

1、原始数据源服务器,从日志拉取数据,并转化为utf8编码,增加ip地址,保存到Redis中,上配置如下:


[plain] view plain copy 在CODE上查看代码片派生到我的代码片

  1. input {  

  2.     file {  

  3.         path => "/tmp/123server.log"  

  4.         codec => json {  

  5.             charset => "GBK"  

  6.         }  

  7.         start_position => "beginning"  

  8.         sincedb_path => "/dev/null"  

  9.         type => "activitysun"  

  10.     }  

  11. }  

  12.   

  13. filter {  

  14.     date {  

  15.         match => ["timestamp", "UNIX"]  

  16.         remove_field => ["time"]  

  17.     }  

  18.     #ruby {  

  19.     #    code => "event.timestamp.time.localtime"  

  20.     #}  

  21.     mutate {  

  22.         #some pc no host  

  23.     replace => { "host" => "192.168.10.11" }     

  24.     }  

  25. }  

  26.   

  27. output {  

  28.     #stdout {  

  29.     #    codec => plain {  

  30.     #        charset => "UTF-8"  

  31.     #    }  

  32.     #}  

  33.     file {  

  34.         path => "/tmp/logstash.log"  

  35.         codec => json {  

  36.             charset => "UTF-8"  

  37.         }  

  38.     }  

  39.     redis {  

  40.         host => ["192.168.10.18"]  

  41.         port => 16378  

  42.         data_type => "list"  

  43.         key => "123server"  

  44.         codec => json {  

  45.             charset => "UTF-8"  

  46.         }  

  47.     }  

  48. }  


采用如下命令启动


[plain] view plain copy 在CODE上查看代码片派生到我的代码片

  1. /data/logstash-2.3.4/bin/logstash -f activitylog.conf  



2、收集服务器,从redis拉取数据,放入elasticsearch,时间做一下处理,方便分析。配置如下:


[plain] view plain copy 在CODE上查看代码片派生到我的代码片

  1. input {  

  2.   redis {  

  3.     host => ["192.168.10.18"]  

  4.     port => 26378  

  5.     data_type => "list"  

  6.     key => "123server"  

  7.     codec => json {  

  8.       charset => "UTF-8"  

  9.     }  

  10.     #type => "activitysun"  

  11.   }  

  12. }  

  13.   

  14. filter {  

  15.     ruby {  

  16.         code=>"event['daytag']=event.timestamp.time.localtime.strftime('%Y.%m.%d')"  

  17.     }  

  18. }  

  19.   

  20. output {  

  21.   elasticsearch {  

  22.     hosts => ["127.0.0.1:19200"]  

  23.     index => "%{type}-%{daytag}"  

  24.     #index => "%{type}-%{+yyyy.MM.dd}"  

  25.   }  

  26. }  

3、kibana展示






filebeat.yml




filebeat.prospectors:
- input_type: log
  paths:
    - /log/123.log
    #- /home/haoren/data/filebeat-5.0.2-linux-x86_64/test.log
  encoding: gbk
  symlinks: true
  include_lines: ['\[.*?统计\]','\[.*?结算\]']
  document_type: pchannelserver
  fields_under_root: true
  fields:
    host: 192.168.10.15


processors:
- drop_fields:
    #fields: ["beat.hostname", "beat.name", "beat.version", "input_type", "beat"]
    fields: ["input_type", "beat", "offset", "source"]


output.redis:
  enabled: true
  hosts: ["192.168.10.18"]
  password: "8841c09BAD52E63067C4DA"
  port: 15377
  datatype: list
  key: "filebeat"
  db: 0


output.file:
  enabled: true
  path: "/tmp/filebeat"


output.console:
  enabled: false











本文转自 chengxuyonghu 51CTO博客,原文链接:http://blog.51cto.com/6226001001/1894117,如需转载请自行联系原作者
相关实践学习
通过日志服务实现云资源OSS的安全审计
本实验介绍如何通过日志服务实现云资源OSS的安全审计。
目录
相关文章
|
4月前
|
SQL 人工智能 监控
SLS Copilot 实践:基于 SLS 灵活构建 LLM 应用的数据基础设施
本文将分享我们在构建 SLS SQL Copilot 过程中的工程实践,展示如何基于阿里云 SLS 打造一套完整的 LLM 应用数据基础设施。
865 71
|
机器学习/深度学习 人工智能 自然语言处理
如何构建企业级数据智能体:Data Agent 开发实践
本篇将介绍DMS的一款数据分析智能体(Data Agent for Analytics )产品的技术思考和实践。Data Agent for Analytics 定位为一款企业级数据分析智能体, 基于Agentic AI 技术,帮助用户查数据、做分析、生成报告、深入洞察。
|
6月前
|
数据采集 数据可视化 数据挖掘
用 Excel+Power Query 做电商数据分析:从 “每天加班整理数据” 到 “一键生成报表” 的配置教程
在电商运营中,数据是增长的关键驱动力。然而,传统的手工数据处理方式效率低下,耗费大量时间且易出错。本文介绍如何利用 Excel 中的 Power Query 工具,自动化完成电商数据的采集、清洗与分析,大幅提升数据处理效率。通过某美妆电商的实战案例,详细拆解从多平台数据整合到可视化报表生成的全流程,帮助电商从业者摆脱繁琐操作,聚焦业务增长,实现数据驱动的高效运营。
|
机器学习/深度学习 人工智能 自然语言处理
构建企业级数据分析助手:Data Agent 开发实践
本篇将介绍DMS的一款数据分析智能体(Data Agent for Analytics )产品的技术思考和实践。Data Agent for Analytics 定位为一款企业级数据分析智能体, 基于Agentic AI 技术,帮助用户查数据、做分析、生成报告、深入洞察。由于不同产品的演进路径,背景都不一样,所以只介绍最核心的部分,来深入剖析如何构建企业级数据分析助手:能力边界定义,技术内核,企业级能力。希望既能作为Data Agent for Analytics产品的技术核心介绍,也能作为读者的开发实践的参考。
1028 1
构建企业级数据分析助手:Data Agent 开发实践
|
4月前
|
数据采集 运维 监控
不重启、不重写、不停机:SLS 软删除如何实现真正的“无感数据急救”?
SLS 全新推出的「软删除」功能,以接近索引查询的性能,解决了数据应急删除与脏数据治理的痛点。2 分钟掌握这一数据管理神器。
285 38
|
8月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
本文介绍了阿里集团A+流量分析平台的日志查询优化方案,针对万亿级日志数据的写入与查询挑战,提出基于Flink、Paimon和StarRocks的技术架构。通过Paimon存储日志数据,结合StarRocks高效计算能力,实现秒级查询性能。具体包括分桶表设计、数据缓存优化及文件大小控制等措施,解决高并发、大数据量下的查询效率问题。最终,日志查询耗时从分钟级降至秒级,显著提升业务响应速度,并为未来更低存储成本、更高性能及更多业务场景覆盖奠定基础。
|
5月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
A+流量分析平台是阿里集团统一的全域流量数据分析平台,致力于通过埋点、采集、计算构建流量数据闭环,助力业务提升流量转化。面对万亿级日志数据带来的写入与查询挑战,平台采用Flink+Paimon+StarRocks技术方案,实现高吞吐写入与秒级查询,优化存储成本与扩展性,提升日志分析效率。
742 1
|
5月前
|
SQL 数据挖掘 BI
数据分析的尽头,是跳出数据看数据!
当前许多企业在数据分析上投入大量资源,却常陷入“数据越看越细,业务越看越虚”的困境。报表繁杂、指标众多,但决策难、行动少,分析流于形式。真正有价值的数据分析,不在于图表多漂亮,而在于能否带来洞察、推动决策、指导行动。本文探讨如何跳出数据、回归业务场景,实现数据驱动的有效落地。
|
5月前
|
供应链 监控 搜索推荐
35页PPT|零售行业自助数据分析方法论:指标体系构建平台集成、会员与商品精细化运营实践
在零售行业环境剧变的背景下,传统“人找货”模式正被“货找人”取代。消费者需求日益个性化,购买路径多元化,企业亟需构建统一的指标体系,借助BI平台实现数据驱动的精细化运营。本文从指标体系构建、平台集成到会员与商品运营实践,系统梳理零售经营分析的方法论,助力企业实现敏捷决策与业务闭环。
35页PPT|零售行业自助数据分析方法论:指标体系构建平台集成、会员与商品精细化运营实践