正文
什么是IK分词器?
下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v5.6.16
把解压后的文件放入es/plugins目录下
kibana测试
首先要知道ik分词器有两种算法
1.ik_smart
2.ik_max_word
首先要知道 使用kibana进行Rest风格进行测试
先说结构参数
GET: 请求方式 _analyze: 默认请求路径,kibana帮我们做了 analyzer: 使用ik分词器的算法类型 text: 要进行分词的字符串
对比可以看出 当使用 ik_smart时并没有把这个字符串全部都进行分词,而使用ik_max_word时则划分了非常多的词 由此得出结论!
ik_smart:把一串字符串进行适量的划分 ik_max_word:把一个字符串进行最小粒度划分
扩展想象一下
例如搜索百度的时候
他就把我们要搜索的字符串分词了多个词来进行搜索,这样就可以最大力度的搜索出我们要查询的数据!
使用kibana创建索引库
请求格式 PUT 索引库名称/文档类型/文档id {请求体}
还可以在创建索引库的时候创建类型和规则
字段类型概述:
其中string在5.X版本后被舍弃,常用的字符串类型 1.text 可以进行分词,在生成倒排索引之前,使用text类型的字符串会被分词器分词一个一个的词进行解析搜索! 2.keyword 用于精确搜索,结构化的搜索,例如要搜索手机号、经纬度、身份证号码、家庭住址、国籍、学校名称等等,用keyword类型的字段只会被精确的搜索到!
创建好索引库后就往库中添加数据!
添加了数据 现在用最简单的方法查询一下
修改索引
POST 索引名称/文档类型/文档id/update {请求体}
拓展 通过命令查看es当前配置信息
GET _cat/indices?v
撒花!!!!!