十二、分布式搜索引擎
12.1 elasticStack
elasticsearch是elastic stack的核心,负责存储、搜索、分析数据。
elasticsearch结合kibana、Logstash、Beats,也就是elastic stack(ELK)。被广泛应用在日志数据分析、实时监控等领域
主要是技术栈
12.2 发展史
省略,看视频即可
12.3 正向索引和倒排索引
12.3.1 正向索引
正向索引:理解为数据的目录,可以快速帮你找到对应的内容(怎么根据页码找到文章)
传统数据库(如MySQL)采用正向索引,例如给下表(tb_goods)中的id创建索引:
缺点
- 性能低,效率低:当表数据达到一千万条时,就要去顺序匹配1千万次
12.3.2倒排索引
倒排索引:怎么根据内容找到文章
倒排索引(Inverted index)是一种常用的文本检索技术,它将文本中每个单词出现的位置记录下来,并以单词为索引建立索引表,从而实现快速检索。
具体来说,倒排索引包含两个部分:单词词典和倒排文件。
单词词典是一个有序的单词列表,每个单词对应一个唯一的编号。
倒排文件是由每个单词的出现位置组成的倒排列表,每个倒排列表包含了出现该单词的所有文档及其在文档中的位置信息。
当用户输入一个查询词时,系统会在倒排索引的单词词典中查找该词,并返回包含该词的文档列表。
倒排索引广泛应用于搜索引擎、全文检索、信息检索等领域,它可以快速地定位到包含查询词的文档,并按照相关性进行排序。
文档(document):每条数据就是一个文档
词条(term):文档按照语义分成词语,不可以重复
面向文档存储,文档数据序列化为 JSON 格式
正向索引与倒排索引之间的查询区别:
实际搜索一个华为手机:
什么是正向索引?
- 基于文档id创建索引。查询词条时必须先找到文档,而后判断是否包含词条
什么是倒排索引?
- 对文档内容分词,对词条创建索引,并记录词条所在文档的信息。查询时先根据词条查询到文档id,而后获取到文档
12.4 ES概念
elasticsearch是面向文档存储的,可以是数据库中的一条商品数据,一个订单信息。
文档数据会被序列化为json格式后存储在elasticsearch中。
12.4.1 索引(Index)
- 索引(index):相同类型的文档的集合
- 映射(mapping):索引中文档的字段约束信息,类似表的结构约束
MySQL与Elasticsearch 之间的概念区别:
MySQL | Elasticsearch | 说明 |
Table | Index | 索引(index),就是文档的集合,类似数据库的表(table) |
Row | Document | 文档(Document),就是一条条的数据,类似数据库中的行(Row),文档都是JSON格式 |
Column | Field | 字段(Field),就是JSON文档中的字段,类似数据库中的列(Column) |
Schema | Mapping | Mapping(映射)是索引中文档的约束,例如字段类型约束。类似数据库的表结构(Schema) |
SQL | DSL | DSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD |
12.4.2 架构
Mysql:擅长事务类型操作(ACID原则),可以确保数据的安全和一致性
Elasticsearch:擅长海量数据的搜索、分析、计算
文档:一条数据就是一个文档,es中是Json格式
字段:Json文档中的字段
索引:同类型文档的集合
映射:索引中文档的约束,比如字段名称、类型
elasticsearch与数据库的关系:
- 数据库负责事务类型操作
- elasticsearch负责海量数据的搜索、分析、计算
12.5 Linux安装和运行
安装
安装elasticsearch,只当版本7.17.9
docker pull elasticsearch:7.17.9 • 1
安装kibana
docker pull kibana:7.17.9
运行
运行elasticsearch
docker run -d \ --name es \ -e "ES_JAVA_OPTS=-Xms1024m -Xmx1024m" \ -e "discovery.type=single-node" \ -v es-data:/usr/share/elasticsearch/data \ -v es-plugins:/usr/share/elasticsearch/plugins \ --privileged \ --network es-net \ -p 9200:9200 \ -p 9300:9300 \ elasticsearch:7.17.9
命令解释:
-e "cluster.name=es-docker-cluster":设置集群名称
-e "http.host=0.0.0.0":监听的地址,可以外网访问
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小
-e "discovery.type=single-node":非集群模式
-v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录
-v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录
-v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录
--privileged:授予逻辑卷访问权
--network es-net :加入一个名为es-net的网络中
-p 9200:9200:端口映射配置运行kibana
docker run -d \ --name kibana \ -e ELASTICSEARCH_HOSTS=http://es:9200 \ --network=es-net \ -p 5601:5601 \ kibana:7.17.9
--network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中
-e ELASTICSEARCH_HOSTS=http://es:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch
-p 5601:5601:端口映射配置kibana启动一般比较慢,需要多等待一会,可以通过命令:
docker logs -f kibana
安装ik分词器
1.查看数据卷目录
安装插件需要知道elasticsearch的plugins目录位置,而我们用了数据卷挂载,因此需要查看elasticsearch的数据卷目录,通过下面命令查看:
docker volume inspect es-plugins
显示结果:
[ { "CreatedAt": "2022-05-06T10:06:34+08:00", "Driver": "local", "Labels": null, "Mountpoint": "/var/lib/docker/volumes/es-plugins/_data", "Name": "es-plugins", "Options": null, "Scope": "local" } ]
说明plugins目录被挂载到了:/var/lib/docker/volumes/es-plugins/_data 这个目录中。
2. 将下载好的 ik 插件进行解压,然后上传到这个文件夹上,下载版本相同的
3. 重启容器
# 4、重启容器 docker restart es
# 查看es日志 docker logs -f es
显示这个则说明安装成功
12.6 IK分词器
12.6.1 拓展词库
要拓展ik分词器的词库,只需要修改一个ik分词器目录中的config目录中的IkAnalyzer.cfg.xml文件:
然后在名为ext.dic的文件中,添加想要拓展的词语即可
十二学习,学习史,Java后端
12.6.2 禁止敏感词语
要禁用某些敏感词条,只需要修改一个ik分词器目录中的config目录中的IkAnalyzer.cfg.xml文件:
然后在名为stopword.dic的文件中,添加想要拓展的词语即可:
吃屎、傻逼、草泥马
12.6.3 总结
分词器的作用是什么?
创建倒排索引时对文档分词
用户搜索时,对输入的内容分词
IK分词器分词模式:
ik_smart:智能切分,粗粒度
ik_max_word:最细切分,细粒度
IK分词器如何拓展词条?如何停用词条?
利用config目录的IkAnalyzer.cfg.xml文件添加拓展词典和停用词典
在词典中添加拓展词条或者停用词条
12.7 索引库操作
索引===>MySQL的表
文档===>MySQL的行数据
12.7.1 mapping 映射属性
mapping是对索引库中文档的约束,常见的mapping属性包括:
type:字段数据类型
字符串:text(可分词的文本)、keyword(精确值)
数值:long、integer、short、byte、double
布尔:boolean
日期:date
对象:object
index:是否创建索引,默认true
analyzer:分词器
- properties:字段的子字段
{ "age": 21, "weight": 52.1, "isMarried": false, "info": "十二Coder", "email": "123456@qq.com", "score": [99.1, 99.5, 98.9], "name": { "firstName": "chuisen", "lastName": "kong" } }
12.7.2 索引库CRUD
- 创建索引库
ES中通过Restful请求操作索引库、文档。请求内容用DSL语句来表示。创建索引库和mapping的DSL语法如下
PUT /索引库名称 { "mappings": { "properties": { "字段名":{ "type": "text", "analyzer": "ik_smart" }, "字段名2":{ "type": "keyword", "index": "false" }, "字段名3":{ "properties": { "子字段": { "type": "keyword" } } }, // ...略 } } } // 例子 # 创建索引库 PUT /test_index_library { "mappings": { "properties": { "age": { "type": "integer" }, "weight": { "type": "integer" }, "info": { "type": "text", "analyzer": "ik_smart" }, "email": { "type": "keyword", "index": false }, "score":{ "type": "double", "index": false }, "name": { "type": "object", "properties": { "firstname": { "type": "keyword" }, "lastname": { "type": "keyword" } } } } } }
- 查询索引库
GET /索引库名 // 例子 GET /test_index_library
- 删除索引库
DELETE /索引库名 // 例子 DELETE /test_index_library
- 添加字段
索引库和mapping一旦创建无法修改,但是可以添加新的字段,语法如下:
PUT /索引库名/_mapping { "properties": { "新字段名":{ "type": "integer" } } } // 例子 PUT /test_index_library/_mapping { "properties": { "sex":{ "type": "text" } } }
删除字段
# 删除字段source:原索引。dest新的索引,ctx._source.remove('sex')移除的字段 POST /_reindex { "source": { "index": "shier_hotel_v2" }, "dest": { "index": "shier_hotel" }, "script": { "source": "ctx._source.remove('sex')" } }
12.8 文档操作
- 新增文档
POST /索引库名/_doc/文档id { "字段1": "值1", "字段2": "值2", "字段3": { "子属性1": "值3", "子属性2": "值4" }, } // 例子 // 插入新的文档 POST /test_index_library/_doc/1 { "age": 18, "email": "123456@qq.com", "info": "测试文档", "name": { "firstname": "名字", "lastname": "测试" }, "score": 889, "sex": "男", "weight": 58.5 }
- 删除文档
DELETE /索引库名/_doc/文档id // 例子 DELETE /test_index_library/_doc/1
- 修改文档
全量修改:会删除旧文档,添加新文档
PUT /索引库名/_doc/文档id // 例子,id存在就是进行修改,不存在则是进行新增操作 // 全量修改 // 原本数据 POST /test_index_library/_doc/2 { "age": 19, "email": "1234563@qq.com", "info": "测试文档2", "name": { "firstname": "名字2", "lastname": "测试" }, "score": [8891,45,88.8], "sex": "女", "weight": 55.5 } // 修改数据 POST /test_index_library/_doc/2 { "age": 19, "email": "1234563@qq.com", "info": "测试文档2", "name": { "firstname": "十二", "lastname": "小小" }, "score": [8891,45,88.8], "sex": "女", "weight": 55.5 }
局部修改:增量修改,修改指定字段值
POST /索引库名/_update/文档id { "doc": { "字段名": "新的值", } } // 局部修改文档,更新单个字段 POST /test_index_library/_update/2 { "doc": { "age": 29 } }
- 查询文档
GET /索引库名/_doc/文档id // 查询指定id GET /test_index_library/_doc/1 // 查询全部 GET /test_index_library/_search
Dynamic Mapping(动态映射约束)
当我们向ES中插入文档时,如果文档中字段没有对应的mapping,ES会帮助我们字段设置mapping,规则如下
JSON类型 | Elasticsearch类型 |
字符串 | 日期格式字符串:mapping为date类型 •普通字符串:mapping为text类型,并添加keyword类型子字段 |
布尔值 | boolean |
浮点数 | float |
整数 | long |
对象嵌套 | object,并添加properties |
数组 | 由数组中的第一个非空类型决定 |
空值 | 忽略 |
- 插入文档时,es会检查文档中的字段是否有mapping,如果没有则按照默认mapping规则来创建索引。
- 如果默认mapping规则不符合你的需求,一定要自己设置字段mapping
12.9 RestClient操作索引库
ES官方提供了各种不同语言的客户端,用来操作ES。这些客户端的本质就是组装DSL语句,通过http请求发送给ES。
12.9.1 利用JavaRestClient实现创建、删除索引库,判断索引库是否存在
1.分析数据结构,定义mapping属性
CREATE TABLE `tb_hotel` ( `id` bigint(20) NOT NULL COMMENT '酒店id', `name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NOT NULL COMMENT '酒店名称', `address` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NOT NULL COMMENT '酒店地址', `price` int(10) NOT NULL COMMENT '酒店价格', `score` int(2) NOT NULL COMMENT '酒店评分', `brand` varchar(32) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NOT NULL COMMENT '酒店品牌', `city` varchar(32) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NOT NULL COMMENT '所在城市', `star_name` varchar(16) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL COMMENT '酒店星级,1星到5星,1钻到5钻', `business` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL COMMENT '商圈', `latitude` varchar(32) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NOT NULL COMMENT '纬度', `longitude` varchar(32) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NOT NULL COMMENT '经度', `pic` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL COMMENT '酒店图片', PRIMARY KEY (`id`) USING BTREE ) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Compact;
ES中支持两种地理坐标数据类型:
geo_point:由纬度(latitude)和经度(longitude)确定的一个点。例如:“32.8752345, 120.2981576”
geo_shape:有多个geo_point组成的复杂几何图形。例如一条直线,“LINESTRING (-77.03653 38.897676, -77.009051 38.889939)”
多个字段去搜索,高效能,就使用字段拷贝可以使用copy_to属性将当前字段拷贝到指定字段示例:
"all": { "type": "text", "analyzer": "ik_max_word" }, "brand": { "type": "keyword", "copy_to": "all" }
最后得到的mapping映射:
# 酒店mapping PUT /shier_hotel { "mappings": { "properties": { "id": { "type": "keyword" }, "name": { "type": "text", "analyzer": "ik_max_word", "copy_to": "all" }, "address": { "type": "keyword", "index": false }, "price": { "type": "integer", "copy_to": "all" }, "score": { "type": "integer", "copy_to": "all" }, "brand": { "type": "keyword", "copy_to": "all" }, "city": { "type": "keyword", "copy_to": "all" }, "starName": { "type": "keyword" }, "business": { "type": "keyword" }, "location": { "type": "geo_point", "copy_to": "all" }, "pic": { "type": "keyword", "index": false }, "all": { "type": "text", "analyzer": "ik_max_word" } } } }
2.初始化JavaRestClient
- 引入依赖
<!--elasticsearch--> <dependency> <groupId>org.elasticsearch.client</groupId> <artifactId>elasticsearch-rest-high-level-client</artifactId> </dependency>
导入ES依赖,版本要和你下载的版本一样
<properties> <java.version>1.8</java.version> <!--覆盖版本--> <elasticsearch.version>7.17.9</elasticsearch.version> </properties>
初始化RestHighLevelClient
import org.apache.http.HttpHost; import org.elasticsearch.client.RestClient; import org.elasticsearch.client.RestHighLevelClient; import org.junit.jupiter.api.AfterEach; import org.junit.jupiter.api.BeforeEach; import org.junit.jupiter.api.Test; import java.io.IOException; /** * @author Shier * CreateTime 2023/4/22 17:41 */ public class HotelIndexTest { private RestHighLevelClient restClient; @Test void textInit(){ System.out.println(restClient); } // 单元测试之前都会去初始化以下这两个测试 @BeforeEach void setUp() { this.restClient = new RestHighLevelClient(RestClient.builder( HttpHost.create("http://8.134.37.7:9200") )); } @AfterEach void tearDown() throws IOException { this.restClient.close(); } }
3.利用JavaRestClient创建索引库
Java代码与DSL之间的联系:
/** * 创建索引库 * * @throws IOException */ @Test void testCreateHotelIndex() throws IOException { // 1.创建Request对象 CreateIndexRequest request = new CreateIndexRequest("shier_hotel"); // 2.请求参数,MAPPING_TEMPLATE是静态常量字符串,内容是创建索引库的DSL语句 request.source(MAPPING_TEMPLATE, XContentType.JSON); // 3.发起请求 restClient.indices().create(request, RequestOptions.DEFAULT); }
4.利用JavaRestClient删除索引库
/** * 删除索引库 */ @Test void testDeleteHotelIndex() throws IOException { // 1.创建Request对象 DeleteIndexRequest request = new DeleteIndexRequest("shier_hotel"); // 2.发起请求 restClient.indices().delete(request, RequestOptions.DEFAULT); }
5.利用JavaRestClient判断索引库是否存在
/** * 判断索引库是否存在 */ @Test void testExistHotelIndex() throws IOException { // 1.创建Request对象 GetIndexRequest request = new GetIndexRequest("shier_hotel"); // 2.发起请求 boolean exists = restClient.indices().exists(request, RequestOptions.DEFAULT); // 输出 System.out.println(exists ? "索引库存在" : "索引库不存在!"); }
12.10 RestClient 文档操作
1.利用JavaRestClient新增酒店数据
/** * 添加数据到文档 */ @Test void testAddDocument() throws IOException { // 获取酒店id 数据 Hotel hotel = hotelService.getById(60398L); // 转换为文档类型 HotelDoc hotelDoc = new HotelDoc(hotel); //Request请求 IndexRequest request = new IndexRequest("shier_hotel"); // JSON文档 request.source(JSON.toJSONString(hotelDoc), XContentType.JSON); // 发送请求 restClient.index(request, RequestOptions.DEFAULT); }
2.利用JavaRestClient根据id查询酒店数据
根据id查询到的文档数据是json,需要反序列化为java对象
/** * 查询文档数据 */ @Test void testGetDocument() throws IOException { // 获取响应 GetRequest request = new GetRequest("shier_hotel", "60398"); // 发送请求,得到响应 GetResponse response = restClient.get(request, RequestOptions.DEFAULT); // 解析响应结果 String json = response.getSourceAsString(); // 反序列化为HotelDoc对象 HotelDoc hotelDoc = JSON.parseObject(json, HotelDoc.class); System.out.println(hotelDoc); }
3.利用JavaRestClient修改酒店数据
方式一:全量更新。再次写入id一样的文档,就会删除旧文档,添加新文档,和添加没有差别
方式二:局部更新。只更新部分字段,演示方式二
/** * 修改文档 */ @Test void testUpdateDocument() throws IOException { // 获取request UpdateRequest request = new UpdateRequest("shier_hotel", "60398"); // 发送请求,得到响应 request.doc( "price", "8989", "starName", "六星级" ); UpdateResponse update = restClient.update(request, RequestOptions.DEFAULT); System.out.println(update); }
4.利用JavaRestClient删除酒店数据
/** * 修改文档 */ @Test void testDeleteDocument() throws IOException { // request DeleteRequest request = new DeleteRequest("shier-hotel", "60398"); // 发送请求,得到响应 restClient.delete(request, RequestOptions.DEFAULT); }
文档操作的基本步骤:
初始化RestHighLevelClient
创建XxxRequest。XXX是Index、Get、Update、Delete
准备参数(Index和Update时需要)
发送请求。调用RestHighLevelClient#.xxx()方法,xxx是index、get、update、delete
解析结果(Get时需要)
批量导入数据
需求:批量查询酒店数据,然后批量导入索引库中
思路:
- 利用mybatis-plus查询酒店数据
- 将查询到的酒店数据(Hotel)转换为文档类型数据(HotelDoc)
- 利用JavaRestClient中的Bulk批处理,实现批量新增文档,示例代码如下
/** * 批量添加 */ @Test void testBulkRequest() throws IOException { // 批量查询数据 List<Hotel> hotels = hotelService.list(); // request BulkRequest request = new BulkRequest(); // 准备参数,转换为文档类型HotelDoc for (Hotel hotel : hotels) { HotelDoc hotelDoc = new HotelDoc(hotel); request.add(new IndexRequest("shier_hotel") .id(hotelDoc.getId().toString()) .source(JSON.toJSONString(hotelDoc), XContentType.JSON)); } // 发送请求 restClient.bulk(request, RequestOptions.DEFAULT); }
十三、分布式搜索
13.1 DSL查询文档
13.1.1 DSL查询分类
查询所有数据:一般测试用,如:match_all
全文检索(full text)查询:利用分词器对内容进行分词,然后去倒排索引库中匹配,如:
match_query
mutl_match_query
精确查询:精确词条查询数据,一般是查找keyword、数值、日期、boolean等类型字段(不需要分词)。
ids:id查询
range:范围查询
term:精确值查询
地理(geo)查询:根据经纬度查询。
geo_distance:距离查询
geo_bounding_box
复合查询:复合查询可以将上述各种查询条件组合起来,合并查询条件
bool:逻辑查询
function_score:相关度算分查询
基本语法
GET /indexName/_search { "query":{ "查询类型":{ "查询条件":"条件值" } } } // 例子,查询所有 GET /shier_hotel/_search { "query": { "match_all": {} } }
13.1.2 全文检索查询
全文检索查询,会对用户输入内容分词,常用于搜索框搜索
match查询
全文检索查询的一种,会对用户输入内容分词,然后去倒排索引库检索,语法:
GET /indexName/_search { "query": { "match": { "FIELD": "TEXT" // 字段 } } } //例子 match查询 GET /shier_hotel/_search { "query": { "match": { "all": "外滩" } } }
评分越高,越靠前
mutl_match查询
multi_match:与match查询类似,只不过允许同时查询多个字段,语法:
性能较差
GET /indexName/_search { "query":{ "mutl_match":{ "query":"搜索内容" "FIELD":["字段1","字段2","字段n"] } } } // 例子 # multi_match 查询 GET /shier_hotel/_search { "query": { "multi_match": { "query": "外滩", "fields": [ "brand", "name", "business" ] } } }
13.1.3 精准查询
精确查询一般是查找keyword、数值、日期、boolean等类型字段。所以不会对搜索条件分词
term
根据词条精确值查询 (输入的内容和查询的内容完全一致才可以得到搜索结果),一般搜索keyword类型、数值类型、布尔类型、日期类型字段
GET /indexName/_search { "query":{ "term":{ "FIELD":{ "value":"VALUE" } } } } // 例子 term查询 GET /shier_hotel/_search { "query": { "term": { "city": { "value": "北京" } } } }
range
根据值的范围查询,可以是数值、日期的范围,处于搜索范围内的则搜索得到
GET /indexName/_search { "query":{ "range":{ "FIELD":{ "gte":100 //大于等于 "lte":200 //小于等于 } } } } // 例子 range查询 价格处于1000~2000内的 GET /shier_hotel/_search { "query": { "range": { "price": { "gte": 1000, "lte": 2000 } } } }
13.1.4地理坐标查询
geo_bounding_box
查询geo_point
值落在某个矩形范围的所有文档
GET /indexName/_search { "query":{ "geo_bounding_box":{ "FIELD":{ "top_left":{ "lat":31.1, "lon":123.1 }, "bottom_right":{ "lat":33.1, "lon":113.1 } } } } }
geo_distance
查询到指定中心点小于某个距离值的所有文档
搜索在方圆多少公里内的
GET /indexName/_search { "query":{ "geo_distance":{ "distance":"1KM" "FIELD":"31.5,45.5" //中心点坐标 } } } // 例子geo_bunding_box查询 GET /shier_hotel/_search { "query": { "geo_distance":{ "distance":"5km", "location":"31.2, 121.4" } } }
13.1.5 复合查询(compound)
复合(compound)查询:复合查询可以将其它简单查询组合起来,实现更复杂的搜索逻辑,例如:
- fuction score:算分函数查询,可以控制文档相关性算分,控制文档排名。例如百度竞价
相关性算分
当我们利用match查询时,文档结果会根据与搜索词条的关联度打分(_score),返回结果时按照分值降序排列。
搜索的内容与被搜索的内容的匹配度越高 ,词条频率越高
搜索的内容与被搜索的内容的匹配度越低,则越靠前,就是说文档的内容都已经存在我要搜索的内容里面,不存在的就越少,那相关渡越低
Function Score Query
可以修改文档的相关性算分(query score),根据新得到的算分排序
例子:给“如家”这个品牌的酒店排名靠前一些
// Function Score Query 算分查询 GET /shier_hotel/_search { "query": { "function_score": { "query": { "match": { "all": "外滩" } }, "functions": [ { "filter": { "term": { "brand": "如家" } }, "weight": 10 } ], "boost_mode": "sum" } } }
Boolean Query
布尔查询是一个或多个查询子句的组合。子查询的组合方式有:
- must:必须匹配每个子查询 “与”
- should:选择性匹配子查询 “或”
- must_not:必须不匹配,不参与算分 “非”
- filter:必须匹配,不参与算分
需求:搜索名字包含“如家”,价格不高于400,在坐标31.21,121.5周围10km范围内的酒店。
// # Boolean Query查询 GET /shier_hotel/_search { "query": { "bool": { "must": [ { "match": { "name": "如家" } } ], "should": [ { "range": { "price": { "gte": 400 } } } ], "filter": [ { "geo_distance": { "distance": "10km", "location": { "lat": 31.21, "lon": 121.5 } } } ] } } }
13.2 搜索结果处理
elasticsearch支持对搜索结果排序,默认是根据相关度算分(_score)来排序。可以排序字段类型有:keyword类型、数值类型、地理坐标类型、日期类型等。
13.2.1 sort:排序
- 正序:ASC
- 倒叙:DESC
例如:
例子1:对酒店数据按照用户评价降序排序,评价相同的按照价格升序排序
# sort 排序 GET /shier_hotel/_search { "query": { "match_all": {} }, "sort": [ { "score": "desc" }, { "price": "asc" } ] }
例子2:实现对酒店数据按照到你的位置坐标的距离升序排序
# 找到121.61,31.03周围的酒店,距离按照升序 GET /shier_hotel/_search { "query": { "match_all": {} }, "sort": [ { "_geo_distance": { "location": { "lat": 31.03, "lon": 121.61 }, "order": "asc", "unit": "km" } } ] }
根据地理坐标查询排序,就不会进行相关算分了