Elasticsearch与文件描述符的恩恩怨怨

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 提到Elasticsearch,让笔者最恶心的倒不是它的反人类的DSL设计,而是每次安装都需要修改进程的最大文件描述符。那ES与文件描述符有啥恩怨呢,下面就来唠叨唠叨。首先说说文件描述符、在说说ES为什么要这么多文件描述符。

提到Elasticsearch,让笔者最恶心的倒不是它的反人类的DSL设计,而是每次安装都需要修改进程的最大文件描述符。那ES与文件描述符有啥恩怨呢,下面就来唠叨唠叨。首先说说文件描述符、在说说ES为什么要这么多文件描述符。

一、文件描述符

1、什么是文件描述符

文件描述符(File descriptor)是操作系统为了高效管理文件所创建的一种索引,用于指向被打开的文件,所有I/O操作都是通过文件描述符来实现。有的地方也会说成是文件句柄,他俩有些区别,这里为了方便理解,暂且认为一样。

如果以文件句柄(File Handle)来理解的话,也很形象。Handle是门把手的意思,我们用门把手操作门,类似的,进程用文件句柄操作底层操作系统的资源

在Linux中,遵循一切皆是文件的原则,磁盘文件、目录、设备、网络套接字、硬件等都是文件。当进程读写文件,在打开时,文件和进程就建立了连接,文件描述符就是这个连接

文件描述符实际上就是对内核层的一个硬件资源实例的指针的引用。当然啦,它和指针也是有区别的,指针是栈上的变量,用来操作堆内存里的对象。

文件描述符在系统里的位置见下图:

2、为什么需要文件描述符

这里还用门把手举例。一扇门如果有多个把手,被不同的人操作,那门往哪儿走就不确定了,很容易出现争论。为了避免这种情况,门只有一个把手。

为了解决系统资源浪费资源冲突的问题,操作系统不会让每个用户层的进程都在内核层创建一个硬件资源实例。在操作同一个系统硬件资源时,用户层可能有多个进程,但是都对应到内核层的一个进程

3、文件描述符数量限制

操作系统会为进程设置一个默认的可以操作的文件描述符数量,进程打开的文件数量或者需要的文件数量超过这个数字时就会抛出异常。

通过ulimit -a命令可以查看可操作的文件描述符数量。通过vim /etc/security/limits.con可以修改进程可操作性的文件描述符数量。

二、ES为什么要这么多文件描述符

在说ES为什么要这么多文件描述符之前,先简单说说ES写入数据的过程。

1、ES写入数据的过程

1.1、写入的主要流程

假设有3个节点:node1、node2、node3,其中node2是主节点,写入数据的主要流程如下:

  1. 客户端的请求携带数据,到达node1,node1找到主分片所在的node2。
  2. node1将数据转发到主分片所在node2,node2将数据写入主分片
  3. 主分片写入成功后,node2将数据转发到node1和node3,node1和node3将数据写入副本分片
  4. 所有副本分片都写入成功后,node2向 客户端所请求的节点node1 返回写入成功的消息。
  5. 客户端所请求的节点node1向客户端返回成功

1.2、写入的细节流程

ES写入数据的细节流程分为4步:Refresh操作、写Transaction Log、Flush*操作**、Merge**操作*

  • Refresh操作:在文档写入ES时首先会写到Index Buffer里,然后每隔一秒执行一次Refresh操作,把Index Buffer里的数据写入磁盘缓存里,但不会调用fsync刷到硬盘。因为数据被Refresh 后才能被检索出来,所以ES是近实时的搜索引擎。
  • 写Transaction Log:文档写入到Index Buffer后,数据是没有刷到硬盘的,存在数据丢失的风险。为了保证数据不丢失,在写完 Index Buffer 后,系统还要写Transaction Log,写Transaction Log默认是调用 fsync 进行刷盘的。ES重启时会从Transaction Log中恢复数据,防止数据丢失。
  • Flush操作:Flush操作会将磁盘缓存持久化到磁盘中,默认30分钟 或 在Transaction Log写满时触发。Flush将磁盘缓存 持久化到磁盘后,会清空Transaction Log。
  • Merge操作:在每次Refresh 后都会创建一个新的Segment文件,随着时间推移和索引越来越多,Segment文件会暴增,这时会带来许多问题,比如消耗过多的文件描述符、内存、CPU时间周期等,而且每次搜索都要检查每个Segment然后再合并结果,所以Segment越多、搜索也就越慢,因此需要合并Segment。ES会自动执行Merge操作,然后物理删除过多的Segment文件。

2、为什么要这么多文件描述符

通过以上ES写数据的流程可以知道,ES在每次Refresh时都会创建新的Segment,创建索引的过程中会创建大量的Segment。Segment内部一般包含着:词项、词频、文档之间的关系。每个Segment都是一个文件,ES使用了大量的文件。每一个Segment都会消耗文件描述符、内存和CPU运行周期。同时,ES 在节点之间进行通信和数据拷贝、ES在和客户端之间进行通信等,也使用了大量的网络资源。

基于以上原因,ES需要大量的文件描述符。Linux 系统为进程准备了一个默认的文件描述符数量,但是这对ES节点来说有点低了,所以要调大文件描述符数量。

3、Linux命令lsof

lsof命令是Linux系统管理工具,人如其名,“列出打开文件(lists openfiles)”。

lsof -p pid命令:显示系统中某个进程当前已打开的所有文件列表。

执行lsof -p 29624时,可以看到大量的文件,索引越多,写入的数据越多,文件描述符数量越多。

执行lsof -p 29624|wc -l,可以查看进程打开文件的总数。

4、其余的文件描述符不够用的情况

1、大量新的数据源源不断的快速写入到ES,造成临时的Segment文件越来越多,ES无法快速合并成一个大的Segment。在查询时,如果查询的数据对应到多个Segment,那么打开的文件描述符就很多了。

2、机器内存过小,资源紧张时内存不够,会触发OOM-Killer将ES进程杀死,其实是一种假死的,因为进程被Kill掉之后,保活进程又会将ES重启,而每次重启后都会产生新的translog文件,并且没有把之前旧的日志文件删除,最终把系统的文件描述符耗尽。

3、如果还有其余场景的话,欢迎朋友们在留言区补充。

三、总结

本文主要说了 文件描述符ES为什么要这么多文件描述符,希望对你有帮助,核心概念如下:

  • 文件描述符:用户层的进程 对 内核层一个 硬件资源实例 的指针 的引用。
  • ES写入流程:Refresh操作、写Transaction Log、Flush操作、Merge操作。
  • 为什么要这么多:ES在每次Refresh时都会创建新的Segment,随着时间的推移和索引的增多,会导致短时间内的Segment数量暴增。ES 在节点之间进行通信和数据拷贝、ES在和客户端之间进行通信等原因,所以需要大量的文件描述符。

本篇完结!感谢你的阅读,欢迎点赞 关注 收藏 私信!!!

原文链接:https://mp.weixin.qq.com/s/3_Pti61GppMa9CzUy9CXRg

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
8月前
|
API 索引
Elasticsearch 中的骚操作你确定不看看?
Elasticsearch 中的骚操作你确定不看看?
|
9月前
|
Shell
Elasticsearch系列——关闭Elasticsearch进程,并重新启动
Elasticsearch系列——关闭Elasticsearch进程,并重新启动
|
索引
elasticsearch备份工具elasticsearch-dump(十)
1.elasticsearch备份工具介绍 elasticsearch备份工具由elasticsearch-dump实现 官网:https://github.com/elasticsearch-dump/elasticsearch-dump 2.安装elasticsearch-dump
1760 1
elasticsearch备份工具elasticsearch-dump(十)
|
9月前
|
存储 算法 数据可视化
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash 1
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash
55 0
|
9月前
|
消息中间件 监控 NoSQL
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash 2
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash
167 0
|
11月前
|
索引
Elasticsearch 集群相关命令
Elasticsearch 集群相关命令
|
Python
一日一技:如何从Elasticsearch读取极大量的数据
一日一技:如何从Elasticsearch读取极大量的数据
144 0
|
SQL 关系型数据库 MySQL
elasticsearch常用应用操作
elasticsearch常用应用操作,会批量从mysql批量导入数据。 会解决一些mysql不太好写的sql语句,如搜索多模糊查询。
114 1
|
存储 自然语言处理 数据库
Elasticsearch的完整读写流程
Elasticsearch的完整读写流程
395 0
|
存储 Java 数据挖掘
1-Elasticsearch配置及运行
介绍Elasticsearch单机及集群的配置及运行
910 0