ELK实时日志分析平台(elk+kafka+metricbeat)-kibana部署(六)

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:
  1. 解压(192.168.30.121上执行):

    tar -zxf /opt/soft/newelk/kibana-5.5.1-linux-x86_64.tar.gz -C ./

    mv kibana-5.5.1-linux-x86_64 kibana

  2. 修改配置文件:

    #cat>kibana/config/kibana.yml<<EOF
    server.port: 5601
    server.host: "192.168.30.121"
    server.basePath: ""
    server.maxPayloadBytes: 1048576
    elasticsearch.url: "http://192.168.30.121:9200"
    elasticsearch.preserveHost: true
    kibana.index: ".kibana"
    kibana.defaultAppId: "discover"
    elasticsearch.username: "elastic"
    elasticsearch.password: "changeme"
    elasticsearch.pingTimeout: 1500
    elasticsearch.requestTimeout: 30000
    elasticsearch.shardTimeout: 0
    elasticsearch.startupTimeout: 5000
    pid.file: /var/run/kibana.pid
    logging.dest: stdout
    logging.silent: false
    logging.quiet: false
    logging.verbose: false
    ops.interval: 5000
    i18n.defaultLocale: "en"
    EOF

  3. 启动:

    wKiom1nJs5ixigQHAAA19kwbIG0475.png

    wKioL1nJs2aB-z3ZAADr6dfBlI0787.png

  4. 以metricbeat为例导入模板:

    tar -zxf/opt/soft/newelk/metricbeat-5.5.1-linux-x86_64.tar.gz -C /opt/soft/newelk

    cd/opt/soft/newelk/metricbeat-5.5.1-linux-x86_64

  5. 创建test索引:

    curl -XPUT'192.168.30.121:9200/test?pretty'

  6. 导入模板到指定索引:

    ./scripts/import_dashboards  -es http://192.168.30.121:9200 -k test

  7. 在kibana中关联索引:

    wKiom1nJtDXxIxzNAADy_dYvmQ4209.png

    wKioL1nJtAPyVK9LAAGR4NMV_ew440.png

    wKioL1nJtA_gOw8gAAEj2Lc6-pM136.png


本文转自 zhuxtqw 51CTO博客,原文链接:http://blog.51cto.com/1054054/1968690,如需转载请自行联系原作者
相关文章
|
1天前
|
数据可视化 关系型数据库 MySQL
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
140 90
|
8天前
|
SQL 存储 自然语言处理
让跨 project 联查更轻松,SLS StoreView 查询和分析实践
让跨 project 联查更轻松,SLS StoreView 查询和分析实践
|
10天前
|
SQL 分布式计算 Serverless
基于阿里云 EMR Serverless Spark 版快速搭建OSS日志分析应用
基于阿里云 EMR Serverless Spark 版快速搭建OSS日志分析应用
|
2月前
|
机器学习/深度学习 人工智能 运维
智能日志分析:用AI点亮运维的未来
智能日志分析:用AI点亮运维的未来
311 15
|
2月前
|
SQL 关系型数据库 MySQL
MySQL事务日志-Undo Log工作原理分析
事务的持久性是交由Redo Log来保证,原子性则是交由Undo Log来保证。如果事务中的SQL执行到一半出现错误,需要把前面已经执行过的SQL撤销以达到原子性的目的,这个过程也叫做"回滚",所以Undo Log也叫回滚日志。
118 7
MySQL事务日志-Undo Log工作原理分析
|
3月前
|
存储 运维 监控
Linux--深入理与解linux文件系统与日志文件分析
深入理解 Linux 文件系统和日志文件分析,对于系统管理员和运维工程师来说至关重要。文件系统管理涉及到文件的组织、存储和检索,而日志文件则记录了系统和应用的运行状态,是排查故障和维护系统的重要依据。通过掌握文件系统和日志文件的管理和分析技能,可以有效提升系统的稳定性和安全性。
72 7
|
3月前
|
监控 安全 Linux
启用Linux防火墙日志记录和分析功能
为iptables启用日志记录对于监控进出流量至关重要
|
3月前
|
监控 应用服务中间件 定位技术
要统计Nginx的客户端IP,可以通过分析Nginx的访问日志文件来实现
要统计Nginx的客户端IP,可以通过分析Nginx的访问日志文件来实现
265 3
|
4月前
|
存储 SQL 监控
|
4月前
|
运维 监控 安全