kubernetes-kafka-kibana日志无输出

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
云原生网关 MSE Higress,422元/月
简介: kubernetes-kafka-kibana日志无输出

记一次测试环境kibana无日志

背景:

kubernetes集群,kibana集群没有数据

访问链路:filebeat-kafka-logstash-elasticsearch-kibana

场景:测试环境kafka只设置了单点。即broker只有一个


排查思路:

#登录kibana,查看ealsticsearch节点是否red或者在master执行 curl 127.0.0.1:port/_cat/health
#查看pod状态是否正常
kubectl get pods -A
#根据访问链路一个个查询log
kubectl log -n namespace filebeat/kafka/logstash/elasticsearch/kibana
#发现kafka有报错信息
error:1 partitions have leader brokers without a matching listener, including [baidd-0] (org.apache.kafka.
说是有一个分区出现了问题,


处理:

#进入kafka pod
kubectl exec -it -n namespace kafka*** bash
#cd bin
kafka-topic.sh --zookeeper zookeeper:2181 --describe
outlist:
Topic:test-trace-log PartitionCount:1        ReplicationFactor:1     Configs:
        Topic: test-trace-log        Partition: 0    Leader: -1  Replicas: 1001  Isr: 1001
发现leader:-1得知出现了单点故障,没有找到正确的borker
#查询现在的broker id
find / -name "meta.properties"
文件内输出:
version=0
broker.id=1002
#进入zookeeper pod查看leader的id
kubectl exec -it -n namespace zookeeper*** bash
#cd bin
./zkCli.sh
[zk: localhost:2181(CONNECTED) 2] ls /brokers/ids 
[1002]
[zk: localhost:2181(CONNECTED) 3] get /brokers/topics/test-trace-log/partitions/0/state
{"controller_epoch":20,"leader":-1,"version":1,"leader_epoch":5,"isr":[1001]}
#使用set修改leader和isr,修改的值要是存在的值,例如brokerid=1002
set /brokers/topics/test-trace-log/partitions/0/state {"controller_epoch":20,"leader":1002,"version":1,"leader_epoch":5,"isr":[1002]}
#必须重启kafka pod****
在kafka pod内操作
#Replicas: 1001 1001这个在单节点上是不存在的,一样会没有数据,需要改为单点brokerid =1002
vim replicas.json
{
    "version": 1,
    "partitions": [{
        "topic": "test-trace-log",
        "partition": 0,
        "replicas": [1002]
    }]
}
一个topic多个分区可以批量操作:
{
    "version": 1,
    "partitions": [
    {
        "topic": "test-trace-log",
        "partition": 0,
        "replicas": [1002]
    },
    {
        "topic": "test-trace-log",
        "partition": 1,
        "replicas": [1002]
    }
    ]
}
#cd bin
kafka-reassign-partitions.sh --zookeeper zookeeper:2181 --reassignment-json-file replicas.json --execute
#查看此时的topic info
#cd bin
kafka-topics.sh --zookeeper zookeeper:2181 --describe
Topic:test-trace-log PartitionCount:1        ReplicationFactor:1     Configs:
        Topic: test-trace-log        Partition: 0    Leader: 1002    Replicas: 1002  Isr: 1002

查看kibana,已经有日志输出。

目录
相关文章
|
7月前
|
消息中间件 存储 Kafka
Kafka日志处理:深入了解偏移量查找与切分文件
**摘要:** 本文介绍了如何在Kafka中查找偏移量为23的消息,涉及ConcurrentSkipListMap的查询、索引文件的二分查找及日志分段的物理位置搜索。还探讨了Kafka日志分段的切分策略,包括大小、时间、索引大小和偏移量达到特定阈值时的切分条件。理解这些对于优化Kafka的性能和管理日志至关重要。
277 2
|
4月前
|
存储 消息中间件 大数据
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
71 4
|
4月前
|
存储 消息中间件 大数据
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
71 1
|
4月前
|
存储 消息中间件 大数据
大数据-68 Kafka 高级特性 物理存储 日志存储概述
大数据-68 Kafka 高级特性 物理存储 日志存储概述
49 1
|
5月前
|
消息中间件 Kafka API
python之kafka日志
python之kafka日志
53 3
|
5月前
|
消息中间件 存储 监控
Kafka的logs目录下的文件都是什么日志?
Kafka的logs目录下的文件都是什么日志?
303 11
|
6月前
|
消息中间件 监控 Kafka
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
359 3
|
6月前
|
消息中间件 Java Kafka
【Azure 事件中心】开启 Apache Flink 制造者 Producer 示例代码中的日志输出 (连接 Azure Event Hub Kafka 终结点)
【Azure 事件中心】开启 Apache Flink 制造者 Producer 示例代码中的日志输出 (连接 Azure Event Hub Kafka 终结点)
|
7月前
|
消息中间件 NoSQL Kafka
基于Kafka的nginx日志收集分析与监控平台(3)
基于Kafka的nginx日志收集分析与监控平台(3)
|
7月前
|
消息中间件 监控 Kafka
基于Kafka的nginx日志收集分析与监控平台(2)
基于Kafka的nginx日志收集分析与监控平台(2)