优化后,ES 做到了几十亿数据检索 3 秒返回!

简介: 优化后,ES 做到了几十亿数据检索 3 秒返回!

一、前言

数据平台已迭代三个版本,从头开始遇到很多常见的难题,终于有片段时间整理一些已完善的文档,在此分享以供所需朋友的

实现参考,少走些弯路,在此篇幅中偏重于 ES 的优化,关于 HBase,Hadoop 的设计优化估计有很多文章可以参考,不再赘述。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

二、需求说明

项目背景:

在一业务系统中,部分表每天的数据量过亿,已按天分表,但业务上受限于按天查询,并且 DB 中只能保留3个月的数据(硬件高配),分库代价较高。

改进版本目标:

1、数据能跨月查询,并且支持1年以上的历史数据查询与导出。

2、按条件的数据查询秒级返回。

三、ES 检索原理

3.1 关于ES和Lucene基础结构

谈到优化,必须能了解组件的基本原理,才容易找到瓶颈所在,以免走多种弯路,先从 ES 的基础结构说起(如下图):

一些基本概念:

Cluster 包含多个 Node 的集群

Node 集群服务单元

Index 一个 ES 索引包含一个或多个物理分片,它只是这些分片的逻辑命名空间

Type 一个 index 的不同分类,6.x 后只能配置一个 type,以后将移除

Document 最基础的可被索引的数据单元,如一个 JSON 串

Shards 一个分片是一个底层的工作单元,它仅保存全部数据中的一部分,它是一个 Lucence 实例 (一个 lucene 索引最大包含2,147,483,519 (= Integer.MAXVALUE - 128)个文档数量)。

Replicas 分片备份,用于保障数据安全与分担检索压力更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

ES 依赖一个重要的组件 Lucene,关于数据结构的优化通常来说是对 Lucene 的优化,它是集群的一个存储于检索工作单元,结构如下图:

在 Lucene 中,分为索引(录入)与检索(查询)两部分,索引部分包含 分词器、过滤器、字符映射器 等,检索部分包含 查询解析器 等。

一个 Lucene 索引包含多个 segments,一个 segment 包含多个文档,每个文档包含多个字段,每个字段经过分词后形成一个或多个 term。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

通过 Luke 工具查看 ES 的 lucene 文件如下,主要增加了 id 和 source 字段:

3.2 Lucene索引实现

Lucene 索引文件结构主要的分为:词典、倒排表、正向文件、DocValues 等,如下图:

注:整理来源于lucene官方:

http://lucene.apache.org/core/721/core/org/apache/lucene/codecs/lucene70/package-summary.html#package.description_

Lucene 随机三次磁盘读取比较耗时。其中 .fdt 文件保存数据值损耗空间大,.tim 和 .doc 则需要 SSD 存储提高随机读写性能。

另外一个比较消耗性能的是打分流程,不需要则可屏蔽。

关于DocValues:

倒排索引解决从词快速检索到相应文档 ID, 但如果需要对结果进行排序、分组、聚合等操作的时候则需要根据文档ID快速找到对应的值。

通过倒排索引代价却很高:需迭代索引里的每个词项并收集文档的列里面 token。这很慢而且难以扩展:随着词项和文档的数量增加,执行时间也会增加。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

Solr docs对此的解释如下:

For other features that we now commonly associate with search, such as sorting, faceting, and highlighting, this approach is not very efficient. The faceting engine, for example, must look up each term that appears in each document that will make up the result set and pull the document IDs in order to build the facet list. In Solr, this is maintained in memory, and can be slow to load (depending on the number of documents, terms, etc.)

在 lucene 4.0 版本前通过 FieldCache,原理是通过按列逆转倒排表将(field value ->doc)映射变成(doc -> field value)映射,问题为逐步构建时间长并且消耗大量内存,容易造成OOM。

DocValues 是一种列存储结构,能快速通过文档 ID 找到相关需要排序的字段。

在 ES 中,默认开启所有(除了标记需 analyzed 的字符串字段)字段的 doc values,如果不需要对此字段做任何排序等工作,则可关闭以减少资源消耗。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

3.3 关于ES索引与检索分片

ES 中一个索引由一个或多个 lucene 索引构成,一个 lucene 索引由一个或多个 segment 构成,其中 segment 是最小的检索域。

数据具体被存储到哪个分片上:shard= hash(routing) % numberofprimary_shards

默认情况下 routing 参数是文档 ID (murmurhash3),可通过 URL 中的 _routing 参数指定数据分布在同一个分片中,index 和 search 的时候都需要一致才能找到数据。

如果能明确根据_routing进行数据分区,则可减少分片的检索工作,以提高性能

四、优化案例

在我们的案例中,查询字段都是固定的,不提供全文检索功能,这也是几十亿数据能秒级返回的一个大前提:

1、ES仅提供字段的检索,仅存储 HBase 的 Rowkey 不存储实际数据。

2、实际数据存储在 HBase 中,通过 Rowkey 查询,如下图。

3、提高索引与检索的性能建议,可参考官方文档(如https://www.elastic.co/guide/en/elasticsearch/reference/current/tune-for-indexing-speed.html

一些细节优化项官方与其他的一些文章都有描述,在此文章中仅提出一些本案例的重点优化项。

4.1 优化索引性能

1、批量写入,看每条数据量的大小,一般都是几百到几千。

2、多线程写入,写入线程数一般和机器数相当,可以配多种情况,在测试环境通过 Kibana 观察性能曲线。

3、增加 segments 的刷新时间,通过上面的原理知道,segment 作为一个最小的检索单元,比如 segment 有50个,目的需要查10条数据,但需要从50个 segment

分别查询10条,共500条记录,再进行排序或者分数比较后,截取最前面的10条,丢弃490条。在我们的案例中将此 "refresh_interval": "-1" ,程序批量写入完成后

进行手工刷新(调用相应的API即可)。

4、内存分配方面,很多文章已经提到,给系统50%的内存给Lucene做文件缓存,它任务很繁重,所以ES节点的内存需要比较多(比如每个节点能配置64G以上最好)

5、磁盘方面配置 SSD,机械盘做阵列 RAID5 RAID10 虽然看上去很快,但是随机 IO 还是 SSD 好。

6、使用自动生成的 ID ,在我们的案例中使用自定义的 KEY ,也就是与 HBase 的 ROW KEY,是为了能根据 rowkey 删除和更新数据,性能下降不是很明显。

7、关于段合并,合并在后台定期执行,比较大的 segment 需要很长时间才能完成,为了减少对其他操作的影响(如检索),elasticsearch 进行阈值限制,默认是20MB/s,

可配置的参数:"indices.store.throttle.maxbytesper_sec" : "200mb" (根据磁盘性能调整)

合并线程数默认是:Math.max(1, Math.min(4, Runtime.getRuntime().availableProcessors() / 2)),如果是机械磁盘,可以考虑设置为1:index.merge.scheduler.maxthreadcount: 1,

在我们的案例中使用 SSD,配置了6个合并线程。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

4.2 优化检索性能

1、关闭不需要字段的 doc values。

2、尽量使用 keyword 替代一些 long 或者 int 之类,term 查询总比 range 查询好 (参考lucene说明 http://lucene.apache.org/core/740/core/org/apache/lucene/index/PointValues.html)。

3、关闭不需要查询字段的 _source 功能,不将此存储仅 ES 中,以节省磁盘空间。

4、评分消耗资源,如果不需要可使用 filter 过滤来达到关闭评分功能,score 则为0,如果使用 constantScoreQuery 则 score 为1。

5、关于分页:

(1) from + size:

每分片检索结果数最大为 from + size,假设 from = 20, size = 20,则每个分片需要获取20 * 20 = 400条数据,多个分片的结果在协调节点合并(假设请求的分配数为5,则结果数最大为 400*5 = 2000条) 再在内存中排序后然后20条给用户。

这种机制导致越往后分页获取的代价越高,达到50000条将面临沉重的代价,默认 from + size默认如下:

index.maxresultwindow :10000

(2) searchafter: 使用前一个分页记录的最后一条来检索下一个分页记录,在我们的案例中,首先使用 from+size,检索出结果后再使用 searchafter,在页面上我们限制了用户只能跳5页,不能跳到最后一页。

(3) scroll 用于大结果集查询,缺陷是需要维护 scroll_id

6、关于排序:我们增加一个 long 字段,它用于存储时间和ID的组合(通过移位即可),正排与倒排性能相差不明显。

7、关于 CPU 消耗,检索时如果需要做排序则需要字段对比,消耗 CPU 比较大,如果有可能尽量分配16cores以上的 CPU,具体看业务压力。

8、关于合并被标记删除的记录,我们设置为0表示在合并的时候一定删除被标记的记录,默认应该是大于10%才删除:"merge.policy.expungedeletesallowed": "0"。

{
  "mappings": {
    "data": {
      "dynamic": "false",
      "_source": {
        "includes": [ "XXX" ]  -- 仅将查询结果所需的数据存储到_source中
      },
      "properties": {
        "state": {
          "type": "keyword",  -- 虽然state为int值,但如果不需要做范围查询,尽量使用keyword,因为int需要比keyword增加额外的消耗。
          "doc_values": false  -- 关闭不需要字段的doc_values功能,仅对需要排序,汇聚功能的字段开启。
        },
        "b": {
          "type": "long"  -- 使用了范围查询字段,则需要用long或者int之类 (构建类似KD-trees结构)
        }
      }
    }
  },
  "settings": { ... }
}

五、性能测试

优化效果评估基于基准测试,如果没有基准测试无法了解是否有性能提升,在这所有的变动前做一次测试会比较好。在我们的案例中:

1、单节点5千万到一亿的数据量测试,检查单点承受能力。

2、集群测试1亿-30亿的数量,磁盘 IO/内存/CPU/网络IO 消耗如何。

3、随机不同组合条件的检索,在各个数据量情况下表现如何。

4、另外 SSD 与机械盘在测试中性能差距如何。

性能的测试组合有很多,通常也很花时间,不过作为评测标准时间上的投入有必要,否则生产出现性能问题很难定位或不好改善。

对于 ES 的性能研究花了不少时间,最多的关注点就是 lucene 的优化,能深入了解 lucene 原理对优化有很大的帮助。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

六、生产效果

目前平台稳定运行,几十亿的数据查询100条都在3秒内返回,前后翻页很快,如果后续有性能瓶颈,可通过扩展节点分担数据压力。

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
1月前
|
SQL 缓存 分布式计算
C#如何处理上亿级数据的查询效率
C#如何处理上亿级数据的查询效率
23 1
|
6月前
|
缓存 关系型数据库 MySQL
MySQL查询优化:提速查询效率的13大秘籍(合理使用索引合并、优化配置参数、使用分区优化性能、避免不必要的排序和group by操作)(下)
MySQL查询优化:提速查询效率的13大秘籍(合理使用索引合并、优化配置参数、使用分区优化性能、避免不必要的排序和group by操作)(下)
286 0
|
6月前
|
缓存 关系型数据库 MySQL
MySQL 查询优化:提速查询效率的13大秘籍(索引设计、查询优化、缓存策略、子查询优化以及定期表分析和优化)(中)
MySQL 查询优化:提速查询效率的13大秘籍(索引设计、查询优化、缓存策略、子查询优化以及定期表分析和优化)(中)
1061 0
|
6月前
|
关系型数据库 MySQL 分布式数据库
ES如何做到亿级数据查询毫秒级返回
ES如何做到亿级数据查询毫秒级返回
104 0
|
5月前
|
NoSQL BI MongoDB
深入理解 MongoDB 条件操作符:优化查询、精准筛选、提升性能
深入理解 MongoDB 条件操作符:优化查询、精准筛选、提升性能
128 1
|
存储 缓存 JSON
大规模数据量下ES如何实现高性能检索?
大规模数据量下ES如何实现高性能检索?
640 0
|
SQL 缓存 监控
列表查询的通用优化方案
> 列表查询是服务端开发中非常高频的诉求,接口的性能往往会跟用户体验强关联。本文通过一个具体的例子,来总结服务端写查询接口时的通用优化方案。 ## 一个例子 ### 功能诉求 给出一个具体的例子,背景是根据内容ID来查询内容信息(如下),目标是通过编码优化使得这个查询效率变快,减少上游(客户端App或外部服务)的等待时间。 ```java public interfa
1354 2
列表查询的通用优化方案
|
Web App开发 关系型数据库 测试技术
PostgreSQL pageinspect 诊断与优化GIN (倒排) 索引合并延迟导致的查询性能下降问题
标签 PostgreSQL , brin索引 , gin索引 , 合并延迟 , gin_pending_list_limit , 查询性能下降 背景 GIN索引为PostgreSQL数据库多值类型的倒排索引,一条记录可能涉及到多个GIN索引中的KEY,所以如果写入时实时合并索引,会导致IO急剧增加,写入RT必然增加。
1902 0
|
存储 固态存储 测试技术
分库代价高的情况下,如何优化ES解决亿级数据量检索
数据平台已迭代三个版本,从一开始遇到很多常见的难题,到现在终于有片段时间整理一些已完善的文档,在此分享以供所需朋友的实现参考,但愿能帮助大家少走些弯路,在此篇幅中偏重于ElasticSearch的优化。
5217 0
下一篇
无影云桌面