(七)、IK分词器
下载地址: ik-7.6.2版本下载
1.什么是IK分词器
分词: 即把一段中文或者别的划分成一个个的关键字,我们咋在搜索时候会把自己的信息进行分成,会把数据库中或者索引库中进行分词,然后进行一个匹配的操作,默认的中文分词就是将每个字看成一个词,比如"我爱李明"会被分为"我",“爱”,“李”,“明”,这显然是不符合要求的,所以我们需要安装中文分词器IK来解决这个问题。
Ik提供了两个分词算法:
- ik_smart: 为最少切分。
- ik_max_word: 为最细粒度划分。
2.解压与安装IK分词器
(1).解压并放置ElasticSearch目录中
C:\Environment\elasticsearch-7.6.2-windows-x86_64\elasticsearch-7.6.2\plugins
(2).重启ElasticSearch服务
版本号要完全一致
elasticsearch-plugin list
3.Kibana进行测试
默认会有一个字典词库
(1).ik_max_word查看 (最大拆分)
GET _analyze { "analyzer": "ik_max_word", "text": "中国人民" }
(2).ik_ik_smart查看 (最小拆分)
GET _analyze { "analyzer": "ik_smart", "text": "中国人民" }
(3).发现问题
我们发现我们想不拆分的名词给我们拆分开来了。
对于我们自己需要自定义的词,需要我们自己加到分词器的字典里面。
4.自定义Ik分词器字典内容
C:\Environment\elasticsearch-7.6.2-windows-x86_64\elasticsearch-7.6.2\plugins\elasticsearch-analysis-ik-7.6.2\config
(1).新建 .dic文件
填充词汇
(2).配置自定义dic
如果建立多个自定义文件: 我们只需要复制一行值配置语句
<entry key="ext_dict">jsxs.dic</entry>
(3).重启ElasticSearch文件