kubernetes-kafka-kibana日志无输出

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: kubernetes-kafka-kibana日志无输出

记一次测试环境kibana无日志

背景:

kubernetes集群,kibana集群没有数据

访问链路:filebeat-kafka-logstash-elasticsearch-kibana

场景:测试环境kafka只设置了单点。即broker只有一个


排查思路:

#登录kibana,查看ealsticsearch节点是否red或者在master执行 curl 127.0.0.1:port/_cat/health
#查看pod状态是否正常
kubectl get pods -A
#根据访问链路一个个查询log
kubectl log -n namespace filebeat/kafka/logstash/elasticsearch/kibana
#发现kafka有报错信息
error:1 partitions have leader brokers without a matching listener, including [baidd-0] (org.apache.kafka.
说是有一个分区出现了问题,


处理:

#进入kafka pod
kubectl exec -it -n namespace kafka*** bash
#cd bin
kafka-topic.sh --zookeeper zookeeper:2181 --describe
outlist:
Topic:test-trace-log PartitionCount:1        ReplicationFactor:1     Configs:
        Topic: test-trace-log        Partition: 0    Leader: -1  Replicas: 1001  Isr: 1001
发现leader:-1得知出现了单点故障,没有找到正确的borker
#查询现在的broker id
find / -name "meta.properties"
文件内输出:
version=0
broker.id=1002
#进入zookeeper pod查看leader的id
kubectl exec -it -n namespace zookeeper*** bash
#cd bin
./zkCli.sh
[zk: localhost:2181(CONNECTED) 2] ls /brokers/ids 
[1002]
[zk: localhost:2181(CONNECTED) 3] get /brokers/topics/test-trace-log/partitions/0/state
{"controller_epoch":20,"leader":-1,"version":1,"leader_epoch":5,"isr":[1001]}
#使用set修改leader和isr,修改的值要是存在的值,例如brokerid=1002
set /brokers/topics/test-trace-log/partitions/0/state {"controller_epoch":20,"leader":1002,"version":1,"leader_epoch":5,"isr":[1002]}
#必须重启kafka pod****
在kafka pod内操作
#Replicas: 1001 1001这个在单节点上是不存在的,一样会没有数据,需要改为单点brokerid =1002
vim replicas.json
{
    "version": 1,
    "partitions": [{
        "topic": "test-trace-log",
        "partition": 0,
        "replicas": [1002]
    }]
}
一个topic多个分区可以批量操作:
{
    "version": 1,
    "partitions": [
    {
        "topic": "test-trace-log",
        "partition": 0,
        "replicas": [1002]
    },
    {
        "topic": "test-trace-log",
        "partition": 1,
        "replicas": [1002]
    }
    ]
}
#cd bin
kafka-reassign-partitions.sh --zookeeper zookeeper:2181 --reassignment-json-file replicas.json --execute
#查看此时的topic info
#cd bin
kafka-topics.sh --zookeeper zookeeper:2181 --describe
Topic:test-trace-log PartitionCount:1        ReplicationFactor:1     Configs:
        Topic: test-trace-log        Partition: 0    Leader: 1002    Replicas: 1002  Isr: 1002

查看kibana,已经有日志输出。

目录
相关文章
|
5月前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
152 3
|
3月前
|
存储 消息中间件 大数据
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
61 4
|
3月前
|
存储 消息中间件 大数据
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
60 1
|
3月前
|
存储 消息中间件 大数据
大数据-68 Kafka 高级特性 物理存储 日志存储概述
大数据-68 Kafka 高级特性 物理存储 日志存储概述
41 1
|
4月前
|
Kubernetes API Docker
跟着iLogtail学习容器运行时与K8s下日志采集方案
iLogtail 作为开源可观测数据采集器,对 Kubernetes 环境下日志采集有着非常好的支持,本文跟随 iLogtail 的脚步,了解容器运行时与 K8s 下日志数据采集原理。
|
4月前
|
消息中间件 Kafka API
python之kafka日志
python之kafka日志
47 3
|
4月前
|
消息中间件 存储 监控
Kafka的logs目录下的文件都是什么日志?
Kafka的logs目录下的文件都是什么日志?
267 11
|
5月前
|
消息中间件 Kubernetes API
在K8S中,如何收集k8s集群日志?
在K8S中,如何收集k8s集群日志?
|
4月前
|
运维 Kubernetes 监控
Loki+Promtail+Grafana监控K8s日志
综上,Loki+Promtail+Grafana 监控组合对于在 K8s 环境中优化日志管理至关重要,它不仅提供了强大且易于扩展的日志收集与汇总工具,还有可视化这些日志的能力。通过有效地使用这套工具,可以显著地提高对应用的运维监控能力和故障诊断效率。
478 0
|
5月前
|
消息中间件 Kubernetes Kafka
微服务从代码到k8s部署应有尽有系列(十一、日志收集)
微服务从代码到k8s部署应有尽有系列(十一、日志收集)

热门文章

最新文章