Elasticsearch Query DSL之Term level queries

本文涉及的产品
云原生数据库 PolarDB MySQL 版,Serverless 5000PCU 100GB
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: Elasticsearch Query DSL之Term level queries

image.png

term_level查询操作的是存储在反向索引(倒排索引)中的准确词根,这些查询通常用于结构化数据,如数字、日期和枚举,而不是全文字段,无需进行分析(分词),term level查询类似于关系型数据库的(where条件过滤)。其查询模式如下:


  • term query
    查找包含指定字段中精确匹配查询字符串的文档。

  • terms query、
    查找包含指定字段中包含查询词根集合中任意一个精确匹配的文档。

  • terms_set query
    查找与一个或多个指定词根相匹配的文档。必须匹配的项的数量取决于指定的最小值或脚本。

  • range query
    范围查询

  • exists query
    返回在原始字段中至少有一个非空值的文档

  • prefix query
    前缀查询

  • wildcard query
    通配符查询

  • regexp query
    正则表达式查询

  • fuzzy query
    模糊查询

  • type query
    指定类型查询

  • ids query
    ids数组查询。


image.png

term query从索引库中的词根倒排索引中精确匹配文档。

POST _search
{
  "query": {
    "term" : { "user" : "Kimchy" } 
  }
}

其含义就是,查找user属性为"Kimchy"的文档,执行查询之前,不会对查询字符串"Kimchy"进行分词。term query查询支持boost参数来提高单个词根的相关度。


不同字段类型的分析处理过程不净相同,下面是各数据类型的处理机制:


  • 字符串字段(string)可以是文本类型,也可以是关键字类型。keyword、精确值(如数字、日期和关键字类型)将字段原始值作为一个整体存储在倒排索引中,以使其可搜索。
  • text类型的字段,首先会原始输入值进行分析(使用分词器)然后得出一系列的词根,然后将这些词根一一添加到倒排索引中。分析文本有很多方法:默认的标准分析器删除大多数标点符号,将文本分解为单个单词,并使用小写字母,在创建索引映射(类似于关系型数据库的表结构,当然有区别)时可以指定各个字段的分词器,在查询的时候也可以使用指定的分词器对查询字符串进行分析,其配置参数名称为:analyzer 。


下面举例说明一下全文索引(match_query)与精确查询(term_query)的工作过程:

1PUT my_index
 {
   "mappings": {
     "_doc": {
       "properties": {
         "full_text": {
           "type":  "text"    // @1 
         },
         "exact_value": {
          "type":  "keyword"    // @2
        }
      }
    }
  }
}
PUT my_index/_doc/1    // @3
{
  "full_text":   "Quick Foxes!",                   
  "exact_value": "Quick Foxes!"              
}

根据上面介绍得知,字段full_text的值会先使用分词器进行分析,然后将分词后的词根存入倒排索引中,而字段exact_value则会直接将值当成词根存入倒排索引中,并不会进行分词。代码@3存入一个文档,full_text的"Quick Foxes!"默认使用标准分词器,则会生产词根[quick、foxes],然后将quick、foxes存入倒排索引中,而字段exact_value不会使用分词器,直接将"Quick Foxes!"存入倒排索引中。基于上面的索引定义与数据,来分析一下这些查询是否能匹配到该文档:


查阅示例1:

GET my_index/_search                       
{
  "query": {
    "term": {
      "exact_value": "Quick Foxes!" 
    }
  }
}

分析:使用term_query,并且字段为exact_value,表示精确匹配得知,该字段存储的值与查询值完成匹配,故结论为能匹配到文档。

查询示例2:

1GET my_index/_search                        
2{
3  "query": {
4    "term": {
5      "full_text": "Quick Foxes!" 
6    }
7  }
8}

分析:使用term_query匹配,使用full_text字段,查询字符串与存入文档之前的值一样,看似能匹配上,但其实不然,根据上面的分析可值,由于full_text字段的类型为text,存入倒排序列的并不是"Quick Foxes!",而是quick、foxes,故结论为无法匹配到文档。


查询示例3:

1GET my_index/_search                        
2{
3  "query": {
4    "term": {
5      "full_text": "foxes" 
6    }
7  }
8}

分析:使用term_query,并且采用查询字符串foxes,由于full_text是text字段类型,会先进行分词,故会存入quick、foxes两个词根,与输入字符串foxes匹配,故结论为能匹配到文档。


查询示例4:

1GET my_index/_search                        
2{
3  "query": {
4    "match": {
5      "full_text": "Quick Foxes!" 
6    }
7  }
8}

分析:使用match query(权威搜索),会首先对查询字符串进行分词,然后根据词根一一匹配,故该结果能匹配到文档。

image.png

查找包含指定字段中包含查询词根集合中任意一个精确匹配的文档。实例如下:

1GET /_search
2{
3    "query": {
4        "terms" : { "user" : ["kimchy", "elasticsearch"]}
5    }
6}

其查询的意图:查询"user"属性的值为"kimchy"或"elasticsearch"的文档。


terms 查询机制


试想如下一个场景,在微博应用场景中,需要查看关注你的所有用户发布的微博,那这个查询第一步应该是得到关注你的所有用户列表,然后查询微博的发布者ID在关注你的列表集合中的所有文档。这个关注列表一般不会很小,如果要分两步来实现的话,查询中传入的terms这个集合会很大,相当于关系型数据库中的in (很大的集合),那有没有一种机制,支持类似关系型数据库中  a.id in ( select b.id from B b where …)这种方式呢?答案当然是有的。下面下能给出本次试验的基础数据:

 1PUT /users/_doc/2
 2{
 3    "followers" : ["1", "3"]
 4}
 5PUT /tweets/_doc/1
 6{
 7    "user" : "1"
 8}
 9//其查询写法如下:
10GET /tweets/_search
11{
12    "query" : {
13        "terms" : {
14            "user" : {
15                "index" : "users",
16                "type" : "_doc",
17                "id" : "2",
18                "path" : "followers"
19            }
20        }
21    }
22}
  • 查询terms支持如下参数:
  • index 指定查询索引名(相当于关系型数据库database)
  • type 指定类型名(相当于关系型数据库table)
  • id 指定文档的id(相当于关系型数据库的row 主键id)
  • path:值来自哪个字段,支持级联,例如followers.id等嵌套json属性。
  • routing:指定路由字段值。


从上可知,terms过滤器的值将从一个子查询中获取。在"子查询"get请求以从指定路径(_source字段中存储的值)中提取。执行terms查询请求可能相当缓慢,因为每个词根都需要额外的处理和占用内存。为了防止出现这种情况,可以设置最大支持的terms的个数,默认为65536。可以通过设置index.max_terms_count来更改此默认值。


java(Demo示例)


 1public static void testTermsQuery() {
 2        RestHighLevelClient client = EsClient.getClient();
 3        try {
 4            SearchRequest searchRequest = new SearchRequest();
 5            searchRequest.indices("esdemo");
 6            SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
 7
 8            sourceBuilder.query(
 9                    QueryBuilders.termsQuery("context", "fox", "brown")
10                    );
11//            TermsLookup termsLookup = new TermsLookup("esdemo", "matchquerydemo", "1", "context");
12//            termsLookup.routing("1");
13//            sourceBuilder.query(
14//                QueryBuilders.termsLookupQuery("context", termsLookup);
15//            );
16            searchRequest.source(sourceBuilder);
17            SearchResponse result = client.search(searchRequest, RequestOptions.DEFAULT);
18            System.out.println(result);
19        } catch (Throwable e) {
20            e.printStackTrace();
21        } finally {
22            EsClient.close(client);
23        }
24    }

image.png

查找与一个或多个指定词根相匹配的文档。必须匹配的项的数量取决于指定的最小值或脚本。必须匹配的项的数量是在文档中指定。先从示例开始讲起:

 1PUT /my-index
 2{
 3    "mappings": {
 4        "_doc": {
 5            "properties": {
 6                "required_matches": {
 7                    "type": "long"
 8                }
 9            }
10        }
11    }
12}

首先为_doc类型新增一个数值型的字段,这里取值为required_matches。

1PUT /my-index/_doc/1?refresh
 2{
 3    "codes": ["ghi", "jkl"],
 4    "required_matches": 2
 5}
 6
 7PUT /my-index/_doc/2?refresh
 8{
 9    "codes": ["def", "ghi",“test”,"ak"],
10    "required_matches": 3
11}

在存入es中,会自己决定需要匹配的词根个数,低于这个数值,则不会返回该文档。

1GET /my-index/_search
 2{
 3    "query": {
 4        "terms_set": {
 5            "codes" : {
 6                "terms" : ["abc", "def", "ghi"],
 7                "minimum_should_match_field": "required_matches"
 8            }
 9        }
10    }
11}

通过属性minimum_should_match_field指定需要匹配的个数,但这个数值来源于文档内部的字段,故该属性值就是指定匹配个数的来源属性名称。该查询结构也支持脚本,其脚本指定字段为minimum_should_match_script,关于script脚本将会在专门的章节中讲述。

image.png

范围查询。查询的类型取决于字段类型,对于string字段,是TermRangeQuery,而对于number/date字段,查询是NumericRangeQuery。以下示例返回年龄在10到20岁之间的所有文档。

 1GET _search
 2{
 3    "query": {
 4        "range" : {
 5            "age" : {
 6                "gte" : 10,
 7                "lte" : 20,
 8                "boost" : 2.0
 9            }
10        }
11    }
12}

range query支持如下参数:


  • gte 大于等于
  • gt 大于
  • lte 小于等于
  • lt 小于
  • boost 权重(重要程度)


data maths(日期函数)


日期表达式以一个日期(基准日期,锚定日期)开始,可以是now,也可以是以||结尾的日期字符串。这个锚定日期可以有选择地跟随一个或多个数学表达式,例如:


  • +1h 增加一小时
  • -1d 减少一天
  • /d - 向日取整 (返回该天的整点)
  • /M -向月取整(返回该月的第一天的整点)


日期支持如下时间单位:


  • y 年
  • M 月
  • w 周
  • d 日
  • h 小时(12表示法)
  • H 小时(24表示法)
  • m 分钟
  • s 小时


假设现在是2001-01-01 12:00:00,以下是一些例子:


  1. now+1h
    当前时间加1小时,最终表示为:2001-01-01 13:00:00

  2. now-1h
    当前时间减1小时,最终表示为:2001-01-01 11:00:00

  3. now-1h/d
    先减去一小时,为2001-01-01 11:00:00,然后舍弃d后面的时间,这里是舍弃11:00:00,故最终表示为2001-01-01 00:00:00

  4. 2001.02.01||+1M/d
    2001-02-01先加一个月,变为2001-03-01,然后舍弃天后的实际,最终表示为2001-03-01 00:00:00


日期范围查询(date maths)


1GET _search
 2{
 3    "query": {
 4        "range" : {
 5            "date" : {
 6                "gte" : "now-1d/d",
 7                "lt" :  "now/d"
 8            }
 9        }
10    }
11}

例如当前时间为2018-10-24 12:25:35,则代表查询的含义为date字段的值大于等于2018-10-23 00:00:00 小于 2018-10-24 00:00:00。


当使用日期数学将日期四舍五入到最近的日、月、小时等时,四舍五入的日期取决于范围的两端是否包含或排除。舍入移动到舍入范围的最后一毫秒,舍出到舍入范围的第一毫秒。关于各运算符的舍入舍出规则如下:


  • gt 2014-11-18||/M
    代表大于2014-11-30T23:59:59.999, 使用gt(不包含e),是向上,取当月最后一天23:59:59

  • gte 2014-11-18||/M
    代表2014-11-01,如果运算符为大于等于,则向下舍弃,取当月第一天零点

  • lt 2014-11-18||/M
    代表2014-11-01,如果运算算法小于,则向下舍弃

  • lte 2014-11-18||/M
    代表2014-11-30T23:59:59.999, 小于等于,则向上,取当月最后一天的23:59:59


日期类型范围查询(format)


1GET _search
 2{
 3    "query": {
 4        "range" : {
 5            "born" : {
 6                "gte": "01/01/2012",
 7                "lte": "2013",
 8                "format": "dd/MM/yyyy||yyyy"
 9            }
10        }
11    }
12}

format使用 双竖线|| 做分隔符号,上面表示,查询born字段 大于等于2012-01-01  00:00:00 小于等于2013-01-01 00:00:00。


如果需要年月日,消息分钟,请用如下写法:

1QueryBuilders.rangeQuery("post_date")
2            .gte("2018-10-25T14:12:10")
3            .lte("2018-10-27T14:12:10")
4            .format("yyyy-MM-dd'T'HH:mm:ss||yyyy-MM-dd'T'HH:mm:ss")。//  ‘T’用来分隔 年月日  与  时分秒。

字段类型的转换格式,将在后续文章中介绍日期类型时会详细介绍。

image.png

返回指定字段中至少有一个非空值(null)的文档。示例如下:

1GET /_search
2{
3    "query": {
4        "exists" : { "field" : "user" }
5    }
6}

对于上面的查询,下面的所有文档都将符合要求:

1{ "user": "jane" }
2{ "user": "" }                                    // 空字符串不为null
3{ "user": "-" } 
4{ "user": ["jane"] }
5{ "user": ["jane", null ] }                   //因为存在jane值不为null,则匹配。


null_value映射


自定义null值。例如将"null"字符串定义为null值。

1PUT /example
 2{
 3  "mappings": {
 4    "_doc": {
 5      "properties": {
 6        "user": {
 7          "type": "keyword",
 8          "null_value": "_null_"
 9        }
10      }
11    }
12  }
13}

其作用是会将user字段的null值索引为null字符串,则下面的文档将能被exists匹配:

1{ "user": null }
2{ "user": [null] }


查询不存在某个字段的文档


 1GET /_search
 2{
 3    "query": {
 4        "bool": {
 5            "must_not": {
 6                "exists": {
 7                    "field": "user"
 8                }
 9            }
10        }
11    }
12}

image.png

词根前缀查询,对查询词根不会使用分词器进行分词。使用示例如下:

1GET /_search
2{ "query": {
3    "prefix" : { "user" : "ki" }
4  }
5}

同样,也可以未字段设置权重(boost)。示例如下:

1GET /_search
2{ "query": {
3    "prefix" : { "user" :  { "value" : "ki", "boost" : 2.0 } }
4  }
5}

其代表含义可转换为关系型数据库查询语句:where a.user like 'ki%'。

思考一下,如果存在有文档的user字段的值为"Kimmi",使用如下字符查询条件:

1{ "query": {
2    "prefix" : { "user" : "Ki" }
3  }
4}

该查询能匹配到结果吗?在默认使用标准分词器的环境中,是无法匹配到数据的,其原因如下:首先,在存储文档时,首先会对"kimmi"字段进行分词,返回的词根为kimmi(全小写),将这些词根存入到Elasticsearch(lucene)的倒排索引中,然后进行查询时,并不会使用分词器对 prefix进行分词,故查询字符串为Ki,是无法匹配到上述文档的,要向匹配到文档,请使用小写的查询ki。这也是ES中的term(词根精确查询)与关系型数据库的一个非常重要的区别。


java示例代码


 1public static void testTermQuery_prefix() {
 2        RestHighLevelClient client = EsClient.getClient();
 3        try {
 4            SearchRequest searchRequest = new SearchRequest();
 5            searchRequest.indices("twitter");
 6            SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
 7            sourceBuilder.query(
 8                    QueryBuilders.prefixQuery("user", "ki")
 9                    .boost(2.0f)
10            );
11            searchRequest.source(sourceBuilder);
12            SearchResponse result = client.search(searchRequest, RequestOptions.DEFAULT);
13            System.out.println(result);
14        } catch (Throwable e) {
15            e.printStackTrace();
16        } finally {
17            EsClient.close(client);
18        }
19    }

image.png

通配符匹配。支持的通配符为和?。其中代表任何的字符序列,包含空字符,而?代表任意的单个字符。这种查询需慎重,特别是对于以通配符开头的查询,例如"a"或"?b",因为这种需要遍历整个倒排索引,通常建议使用 "查询字符加通配符",例如"a"或"a*b"这类。

其查询举例如下

1GET /_search
2{
3    "query": {
4        "wildcard" : { "user" : "ki*y" }
5    }
6}
7
public static void testWildcardQuery() {
        RestHighLevelClient client = EsClient.getClient();
        try {
            SearchRequest searchRequest = new SearchRequest();
            searchRequest.indices("esdemo");
            SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
            sourceBuilder.query(
                    QueryBuilders.wildcardQuery("user", "ki*il")
                    );
            searchRequest.source(sourceBuilder);
            SearchResponse result = client.search(searchRequest, RequestOptions.DEFAULT);
            System.out.println(result);
        } catch (Throwable e) {
            e.printStackTrace();
        } finally {
            EsClient.close(client);
        }
    }

image.png

使用正则表达式进行查询匹配,暂不深入学习,需要时再细化。

image.png

模糊匹配,基于词根编辑距离来实现。所谓的词根编辑距离(其术语为: Levenshtein Edit Distance)是指一个词(字符序列)经过多少次单字符的修改能转换为另外一个词的次数。例如 cat  --> cak 其编辑距离为1。


支持模糊匹配的查询API,其参数fuzziness可选值:


  • 0:表示精确匹配。
  • 1:表示允许出现1个编辑距离。
  • 2:表示允许出现2个编辑距离。
  • auto:当词根长度小于3时,则精确匹配;当词根长度大于3并且小于6时,允许1个编辑长度的词根匹配;当词根大于等于6后,允许2个编辑距离的词根匹配。默认为auto。


注意:fuzzy query是词根级别的查询,不会对查询字符串进行分析。


支持的参数如下:


  • fuzziness 允许的编辑距离,默认为AUTO。
  • prefix_length 词根的前prefix_length个字符不允许出现编辑距离,指一个词根前面的部分必须是精确匹配,因为模糊匹配,一般是用来解决书写错误,或语法(因为的负数)等,前面的字符一般不会书写错误。
  • max_expansions 最大去查找匹配词根的个数,默认为50。
  • transpositions 是否支持位置变化,例如ab-ba,如果transpositions为true,则ab-ba的编辑距离为1,如果transpositions为false,则其编辑距离为2。默认为false。


JAVA示例


假设es数据库中缓存有如下文档:{“message”:"ab and hell"}

 1    public static void testFuzzyQuery() {
 2        RestHighLevelClient client = EsClient.getClient();
 3        try {
 4            SearchRequest searchRequest = new SearchRequest();
 5            searchRequest.indices("twitter");
 6            SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
 7            sourceBuilder.query(
 8                    QueryBuilders.fuzzyQuery("message", "ba")
 9                    .transpositions(true)
10                    .fuzziness(Fuzziness.ONE)  // 如果transpositions设置为false,则无法匹配到上述文档,如果将fuzziness(Fuzziness.TWO),则
11                                           // 可匹配到文档,但如果transpositions=true,并且fuzziness(Fuzziness.ONE)同样可匹配到文档。
12            );
13            searchRequest.source(sourceBuilder);
14            SearchResponse result = client.search(searchRequest, RequestOptions.DEFAULT);
15            System.out.println(result);
16        } catch (Throwable e) {
17            e.printStackTrace();
18        } finally {
19            EsClient.close(client);
20        }
21    }

image.png

term level queries 支持使用type来过滤文档(相当于数据库层面的表级别过滤)

GET /_search
{
    "query": {
        "type" : {
            "value" : "_doc"
       }
    }
}

image.png

可以通过指定ids数组进行查询,其示例如下:

GET /_search
{
    "query": {
        "ids" : {
            "type" : "_doc",
            "values" : ["1", "4", "100"]
        }
    }
}

其中type为可选字段,如果未指定,则查索引库中所有的类别,6.0版本后建议一个索引库只定义一个类型。


本节详细介绍了es term query查询模式。

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
7月前
|
Web App开发 自然语言处理 API
巧记Elasticsearch常用DSL语法
记知识先记轮廓,关于DSL语法的轮廓,记住以下3句话即可:1.索引、文档和查询。2.Match、Term和Bool。3.还有翻页和聚合
巧记Elasticsearch常用DSL语法
|
13天前
|
SQL Java 关系型数据库
spring data elasticsearch 打印sql(DSL)语句
spring data elasticsearch 打印sql(DSL)语句
202 0
|
13天前
|
自然语言处理
elasticsearch中term与match区别
elasticsearch中term与match区别
44 0
|
6月前
|
JSON 自然语言处理 数据格式
分布式系列教程(33) -ElasticSearch DSL语言查询与过滤
分布式系列教程(33) -ElasticSearch DSL语言查询与过滤
159 0
|
13天前
|
JSON 自然语言处理 算法
【Elasticsearch】DSL查询文档
【Elasticsearch】DSL查询文档
321 0
|
13天前
|
自然语言处理 索引
Elasticsearch之常用DSL语句
mapping是对索引库中文档的约束
|
13天前
dsl语句查询elasticsearch集群节点分布和资源使用情况
dsl语句查询elasticsearch集群节点分布和资源使用情况
121 0
|
13天前
elasticsearch7.x kibana的常用DSL(自己练习的)
elasticsearch7.x kibana的常用DSL(自己练习的)
|
13天前
|
Java 索引
ElasticSearch DSL操作
ElasticSearch DSL操作
81 1
|
8月前
|
SQL 关系型数据库 索引
Elasticsearch查询时还在百度DSL语句吗?你可能需要这份总结
Elasticsearch查询时还在百度DSL语句吗?你可能需要这份总结

热门文章

最新文章