Elastic Stack-Elasticsearch使用介绍(四)

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: Elastic Stack-Elasticsearch使用介绍

一、前言


   上一篇说了一下查询和存储机制,接下来我们主要来说一下排序、聚合、分页;

   写完文章以后发现之前文章没有介绍Coordinating Node,这个地方补充说明下Coordinating Node(协调节点):搜索请求或索引请求可能涉及保存在不同数据节点上的数据。例如,搜索请求在两个阶段中执行,当客户端请求到节点上这个阶段的时候,协调节点将请求转发到保存数据的数据节点。每个数据节点在分片执行请求并将其结果返回给协调节点。当节点返回到客端这个阶段的时候,协调节点将每个数据节点的结果减少为单个节点的所有数据的结果集。这意味着每个节点具有全部三个node.master,node.data并node.ingest这个属性,当node.ingest设置为false仅作为协调节点,不能被禁用。


二、排序


  ES默认使用相关性算分来排序,如果想改变排序规则可以使用sort:

  1005447-20180926200627557-613626206.png

 也可以指定多个排序条件:

  1005447-20180926200740797-701196942.png

  排序的过程是指是对字段原始内容排序的过程,在排序的过程中使用的正排索引,是通过文档的id和字段进行排序的;Elasticsearch针对这种情况提供两种实现方式:fielddata和doc_value;

  fielddata

  fielddata的数据结构,其实根据倒排索引反向出来的一个正排索引,即document到term的映射。只要我们针对需要分词的字段设置了fielddata,就可以使用该字段进行聚合,排序等。我们设置为true之后,在索引期间,就会以列式存储在内存中。为什么存在于内存呢,因为按照term聚合,需要执行更加复杂的算法和操作,如果基于磁盘或者 OS 缓存,性能会比较差。用法如下:

  1005447-20181002103209051-426724080.png

  fielddata加载到内存中有几种情况,默认是懒加载。即对一个分词的字段执行聚合或者排序的时候,加载到内存。所以他不是在索引创建期间创建的,而是查询在期间创建的。

  fielddata在内存中加载的这样就会出现一个问题,数据量很大的情况容易发生OOM,这种时候我们该如何控制OOM的情况发生?

  1.内存限制

  indices.fielddata.cache.size: 20% 默认是无限制,限制内存使用以后频繁的导致内存回收,容易照成GC和IO损耗。

  2.断路器(circuit breaker)

  如果查询一次的fielddata超过总内存,就会发生内存溢出,circuit breaker会估算query要加载的fielddata大小,如果超出总内存,就短路,query直接失败;

  indices.breaker.fielddata.limit:fielddata的内存限制,默认60%

  indices.breaker.request.limit:执行聚合的内存限制,默认40%

  indices.breaker.total.limit:综合上面两个,限制在70%以内

  3.频率(frequency)

  加载fielddata的时候,也是按照segment去进行加载的,所以可以通过限制segment文档出现的频率去限制加载的数目;

  min :0.01 只是加载至少1%的doc文档中出现过的term对应的文档;

  min_segment_size: 500 少于500 文档数的segment不加载fielddata;

  fielddata加载方式:

  1.lazy

  这个在查询的放入到内存中,上面已经介绍过;

  2.eager(预加载)

  当一个新的segment形成的时候,就加载到内存中,查询的时候遇到这个segment直接查询出去就可以;

  3.eager_global_ordinals(全局序号加载)

  构建一个全局的Hash,新出现的文档加入Hash,文档中用序号代替字符,这样会减少内存的消耗,但是每次要是有segment新增或者删除时候回导致全局序号重建的问题;

  doc_value

  fielddata对内存要求比较高,如果数据量很大的话对内存是一个很大的考验。所以Elasticsearch又给我们提供了另外的策略doc_value,doc_value使用磁盘存储,与fielddata结构完全是一样的,在倒排索引基础上反向出来的正排索引,并且是预先构建,即在建倒排索引的时候,就会创建doc values。,这会消耗额外的存储空间,但是对于JVM的内存需求就会减少。总体来看,dov_valus只是比fielddata慢一点,大概10-25%,则带来了更多的稳定性。

  类型是string的字段,生成分词字段(text)和不分词字段(keyword),不分词字段即使用keyword,所以我们在聚合的时候,可以直接使用field.keyword进行聚合,而这种默认就是使用doc_values,建立正排索引。不分词的字段,默认建立doc_values,即字段类型为keyword,他不会创建分词,就会默认建立doc_value,如果我们不想该字段参与聚合排序,我们可以设置doc_values=false,避免不必要的磁盘空间浪费。但是这个只能在索引映射的时候做,即索引映射建好之后不能修改。

  两者对比:

  1005447-20181002134140424-1837594585.png

三、分页


  有3种类型的分页,如下图:

  1005447-20181002151224310-559249792.png

  1.from/size

  form开始的位置,size获取的数量;

 1005447-20181002151513268-550786176.png  

  数据在分片存储的情况下怎么查询前1000个文档?

  在每个分片上都先获取1000个文档,然后再由Coordinating Node聚合所有分片的结果后再排序选取前1000个文档,页数越多,处理文档就越多,占用内存越多,耗时越长。数据分别存放在不同的分片上,必须一个去查询;为了避免深度分页,Elasticsearch通过index.max_result_window限定显示条数,默认是10000;

  1005447-20181002152317472-1762199836.png

  2.scroll

  scroll按照快照的方式来查询数据,可以避免深度分页的问题,因为是快照所以不能用来做实时搜索,数据不是实时的,接下来说一下scroll流程:

  首先发起scroll查询请求,Elasticsearch在接收到请求以后会根据查询条件查询文档i,1m表示该快照保留1分钟;

  1005447-20181002160552807-204239081.png

  接下来查询的时候根据上一次返回的快照id继续查询,不断的迭代调用直到返回hits.hits数组为空时停止

  1005447-20181002160821505-343219676.png

 过多的scroll调用会占用大量的内存,可以通过删除的clear api进行删除:

 删除某个:

 1005447-20181002160956666-734184412.png

删除多个:

1005447-20181002161031296-2004727872.png

删除所有:

1005447-20181002161052828-401411215.png

3.search after

避免深度分页的性能问题,提供实时的下一页文档获取功能,通过提供实时游标来解决此问题,接下来我们来解释下这个问题:

第一次查询:这个地方必须保证排序的值是唯一的

1005447-20181002161704126-120586138.png

第二步: 使用上一步最后一个文档的sort值进行查询

1005447-20181002161832568-1879449119.png

 通过保证排序字段唯一,我们实现类似数据库游标功能的效果;


四、聚合分析


 Aggregation,是Elasticsearch除搜索功能外提供的针对Elasticsearch数据做统计分析的功能,聚合的实时性很高,都是及时返回,另外还提供多种分析方式,接下来我们看下聚合的4种分析方式:

 Metric

 在一组文档中计算平均值、最大值、最小值、求和等等;

 Avg(平均值)

 1005447-20181004105205491-1150911598.png

1005447-20181004105240693-1644895565.png

Min最小值

1005447-20181004110304317-529214060.png

1005447-20181004110318649-7646935.png

Sum求和(过滤查询中的结果查询出帽子的价格的总和)


1005447-20181004110413144-1508294094.png

Percentile计算从聚合文档中提取的数值的一个或多个百分位数;

解释下下面这个例子,网站响应时间做的一个分析,单位是毫秒,5毫秒响应占总响应时间的1%;

1005447-20181006111506153-1518554235.png

1005447-20181006111518523-141428554.png

Cardinality计算不同值的近似计数,类似数据库的distinct count

1005447-20181006113422035-929217773.png

当然除了上面还包括很多类型,更加详细的内容可以参考官方文档;

Bucket

按照一定的规则将文档分配到不同的桶里,达到分类分析的目的;

比如把年龄小于10放入第一个桶,大于10小于30放入第二个桶里,大于30放到第三个桶里;

1005447-20181004113601598-1668995185.png

接下来我们介绍我们几个常用的类型:

Date Range

根据时间范围来划分桶的规则;

1005447-20181006095628545-845161822.png

1005447-20181006100016974-401052090.png

to表示小于当前时间减去10个月;from大于当前时间减去10个月;format设定返回格式;form和to还可以指定范围,大于某时间小于某时间;

Range

通过自定义范围来划分桶的规则;

1005447-20181006101032045-1252850647.png

1005447-20181006101046713-1562296727.png

这样就可以轻易做到上面按照年龄分组统计的规则;

Terms

直接按照term分桶,类似数据库group by以后求和,如果是text类型则按照分词结果分桶;

1005447-20181006103145117-1123160935.png

1005447-20181006103157844-1884831068.png

比较常用的类型大概就是这3种,比如还有什么Histogram等等,大家可以参考官方文档

Pipeline

对聚合的结果在次进行聚合分析,根据输出的结果不同可以分成2类:

Parent

将返回的结果内嵌到现有的聚合结果中,主要有3种类型:

1.Derivative

计算Bucket值的导数;

2.Moving Average

计算Bucket值的移动平均值,一定时间段,对时间序列数据进行移动计算平均值;

3.Cumulatove Sum

计算累计加和;

Sibling

返回的结果与现有聚合结果同级;

1.Max/Min/Avg/Sum

2.Stats/Extended

Stats用于计算聚合中指定列的所有桶中的各种统计信息;

Extended对Stats的扩展,提供了更多统计数据(平方和,标准偏差等);

3.Percentiles

Percentiles 计算兄弟中指定列的所有桶中的百分位数;

更多介绍,请参考官方文档;

Matrix

矩阵分析,使用不多,参考官方文档;

原理探讨与数据准确性探讨:

Min原理分析:

先从每个分片计算最小值 -> 再从这些值中计算出最小值

1005447-20181006113705500-758033103.png

Terms聚合以及提升计算值的准确性:

Terms聚合的执行流程:每个分片返回top10的数据,Coordinating node拿到数据之后进行整合和排序然后返回给用户。注意Terms并不是永远准确的,因为数据分散在多个分片上,所以Coordinating node无法得到所有数据(这句话有同学会有疑惑请查看上一篇文章)。如果要解决可以把分片数设置为1,消除数据分散的问题,但是会分片数据过多问题,或者设在Shard_Size大小,即每次从Shard上额外多获取的数据,以提升准确度。

Terms聚合返回结果中有两个值:

doc_count_error_upper_bound 被遗漏的Term的最大值;

sum_other_doc_count 返回聚合的其他term的文档总数;

在Terms中设置show_term_doc_count_error可以查看每个聚合误算的最大值;

Shard_Size默认大小:shard_size = (size*1.5)+10;

通过调整Shard_Size的大小可以提升准确度,增大了计算量降低响应的时间。

由上面可以得出在Elasticsearch聚合分析中,Cardinality和Percentile分析使用是近似统计算法,就是结果近似准确但是不一定精确,可以通过参数的调整使其结果精确,意味着会有更多的时间和更大的性能消耗。


五、结束语


Search分析到此基本结束,下一篇介绍一些常用的优化手段和建立索引时的考虑问题

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
7月前
|
运维 架构师 搜索推荐
7 年+积累、 Elastic 创始人Shay Banon 等 15 位专家推荐的 Elasticsearch 8.X新书已上线...
7 年+积累、 Elastic 创始人Shay Banon 等 15 位专家推荐的 Elasticsearch 8.X新书已上线...
84 4
|
7月前
|
存储 安全 数据处理
Elastic 中国开发者大会2023最新干货——Elasticsearch 7、8 新功能一网打尽
Elastic 中国开发者大会2023最新干货——Elasticsearch 7、8 新功能一网打尽
69 0
|
12月前
|
搜索推荐 索引
Elasticsearch elastic io 100%,但磁盘的iops和吞吐量没爆没啥原因吗?
Elasticsearch elastic io 100%,但磁盘的iops和吞吐量没爆没啥原因吗?
182 3
|
12月前
|
存储 缓存 监控
Elasticsearch elastic io 100%,但磁盘的iops和吞吐量没爆没啥原因吗?
Elasticsearch elastic io 100%,但磁盘的iops和吞吐量没爆没啥原因吗?
287 2
|
存储 自然语言处理 监控
ElasticSearch第三讲:ES详解 - Elastic Stack生态和场景方案
ElasticSearch第三讲:ES详解 - Elastic Stack生态和场景方案
146 0
|
缓存 安全 Java
带你读《Elastic Stack 实战手册》之8:—— 3.4.1.1.安装Elasticsearch(本地及docker)(2)
带你读《Elastic Stack 实战手册》之8:—— 3.4.1.1.安装Elasticsearch(本地及docker)(2)
166 1
|
数据采集 数据可视化 搜索推荐
带你读《Elastic Stack 实战手册》之3:——3.1.1.从 Elasticsearch 到 Elastic Stack(上)
带你读《Elastic Stack 实战手册》之3:——3.1.1.从 Elasticsearch 到 Elastic Stack(上)
248 0
|
存储 安全 数据可视化
带你读《Elastic Stack 实战手册》之3:——3.1.1.从 Elasticsearch 到 Elastic Stack(中)
带你读《Elastic Stack 实战手册》之3:——3.1.1.从 Elasticsearch 到 Elastic Stack(中)
180 0
|
测试技术 Apache
带你读《Elastic Stack 实战手册》之3:——3.1.1.从 Elasticsearch 到 Elastic Stack(下)
带你读《Elastic Stack 实战手册》之3:——3.1.1.从 Elasticsearch 到 Elastic Stack(下)
176 0
|
存储 缓存 Ubuntu
带你读《Elastic Stack 实战手册》之8:—— 3.4.1.1.安装Elasticsearch(本地及docker)(1)
带你读《Elastic Stack 实战手册》之8:—— 3.4.1.1.安装Elasticsearch(本地及docker)(1)
201 0
下一篇
无影云桌面