探究 | kafka-connector 同步 Elasticsearch速度慢根因分析?

本文涉及的产品
Elasticsearch Serverless通用抵扣包,测试体验金 200元
简介: 1、kafka同步Elasticsearch的方式之前博文中也有介绍:方式一:logstash_input_kafka方式二:kafka_connector方式三:spark stream方式四:java程序读写自己实现

image.png

链接

2、kafka-connector同步kafka到ES

image.png

场景一:kafka实时数据流直接通过kafka-connector同步到ES。

场景二:kafka实时数据流需要中间数据处理后再同步到ES。


3、同步慢问题分析?

3.1 针对场景一:

可能的原因:kafka-connector写入ES速度慢?

可能的应对策略核心**:提升ES的写入速度**。

分解策略:


1)ES副本数设置为0

待写入完毕后再改成实际副本值。

2)调整 bulk 线程池和队列

结合物理机的线程大小配置与之匹配的线程池和队列大小。

3)增加refresh间隔

默认的refresh的间隔是1s,用index.refresh.interval可以设置。如果设置为默认值1s,则会强迫每秒将内存中的数据写入磁盘中,创建一个新的segment file。这个1s间隔是导致:写入数据后,需要1s才能看到的原因。

如果该值调大,比如60s,新写入的数据60s才能看到,这样就会获得了较大的写入吞吐量。

因为:60s的间隔都是写入内存的,每隔60s才会创建一个segment file。

调整translog flush 间隔

translog的写入可以设置,默认是request,每次请求都会写入磁盘(fsync),这样就保证所有数据不会丢,但写入性能会受影响。

如果改成async,则按照配置触发trangslog写入磁盘,注意这里说的只是trangslog本身的写盘。

translog什么时候清空?默认是512mb,或30分钟。这个动作就是flush,同时伴随着segment提交(写入磁盘)。flush之后,这段translog的使命就完成了,因为segment已经写入磁盘,就算故障,也可以从segment文件恢复。

index.translog.durability: async

index.translog.sync_interval: 120s

index.translog.flush_threshold_size: 1024mb

index.translog.flush_threshold_period: 120m

1

2

3

4

另外,有一个/_flush/sync命令,在做数据节点维护时很有用。其逻辑就是flush translog并且将sync_id同步到各个分片。可以实现快速恢复。

更多策略参考:


https://www.easyice.cn/archives/207

https://elasticsearch.cn/question/3847

3.2 针对场景二:

结合实际场景,从后往前分析?

思考问题:

(1)kafka-connector之前的实时速度怎么样?

可以在kafka-connector同步之前打印日志,看获取的实时数据实现和当前时刻进行比对。

如果二者差值较大, 则认为数据没有实时。

可能的原因需要进一步分析。

可能问题1:接入的时候中间可能有异常。

进一步排查kafka 接入的时候的问题。

可能问题2:中间处理慢了。


1)排查下,中间有没有调用第三方应用、服务。比如:读写数据库、调用第三方分词等服务。

2)考虑增大并行,提升调用速度。

(2)kafka-connector写入到ES的时刻是不是慢了?

如果是,需要统计一段时间,比如1小时、5小时,统计出每秒的写入速度?

这里的优化:


1)增大并行,kafka-connector写入ES考虑并行。

2)参考场景一中提及的ES方面的优化。

4、小结

问题排查的周期可能会很长,但是要有定力。

从后往前、找到问题的根源,“对症下药”放得持久疗效!

目录
打赏
0
0
0
0
582
分享
相关文章
直播预告|Kafka+Flink双引擎实战:手把手带你搭建分布式实时分析平台!
在数字化转型中,企业亟需从海量数据中快速提取价值并转化为业务增长动力。5月15日19:00-21:00,阿里云三位技术专家将讲解Kafka与Flink的强强联合方案,帮助企业零门槛构建分布式实时分析平台。此组合广泛应用于实时风控、用户行为追踪等场景,具备高吞吐、弹性扩缩容及亚秒级响应优势。直播适合初学者、开发者和数据工程师,参与还有机会领取定制好礼!扫描海报二维码或点击链接预约直播:[https://developer.aliyun.com/live/255088](https://developer.aliyun.com/live/255088)
249 35
直播预告|Kafka+Flink双引擎实战:手把手带你搭建分布式实时分析平台!
直播预告|Kafka+Flink 双引擎实战:手把手带你搭建分布式实时分析平台!
直播预告|Kafka+Flink 双引擎实战:手把手带你搭建分布式实时分析平台!
104 11
为什么 Apache Doris 是比 Elasticsearch 更好的实时分析替代方案?
本文将从技术选型的视角,从开放性、系统架构、实时写入、实时存储、实时查询等多方面,深入分析 Apache Doris 与 Elasticsearch 的能力差异及性能表现
为什么 Apache Doris 是比 Elasticsearch 更好的实时分析替代方案?
Apache Kafka流处理实战:构建实时数据分析应用
【10月更文挑战第24天】在当今这个数据爆炸的时代,能够快速准确地处理实时数据变得尤为重要。无论是金融交易监控、网络行为分析还是物联网设备的数据收集,实时数据处理技术都是不可或缺的一部分。Apache Kafka作为一款高性能的消息队列系统,不仅支持传统的消息传递模式,还提供了强大的流处理能力,能够帮助开发者构建高效、可扩展的实时数据分析应用。
381 5
超值选择:阿里云Elasticsearch Serverless在企业数据检索与分析中的高性能与灵活性
本文介绍了阿里云Elasticsearch Serverless服务的高性价比与高度弹性灵活性。
355 8
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
179 4
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
125 2
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问