前言
学习使用 elasticsearch-ik 分词器,安装在第一节。
博客目录
- elasticsearch学习一:了解 ES,版本之间的对应。安装elasticsearch,kibana,head插件、elasticsearch-ik分词器。
- elasticsearch学习二:使用springboot整合TransportClient 进行搭建elasticsearch服务
- elasticsearch学习三:elasticsearch-ik分词器的自定义配置 分词内容
- elasticsearch学习四:使用springboot整合 rest 进行搭建elasticsearch服务
一、发现问题
对 超级喜欢冯凡利java
进行分词
1. ik_market
2. ik_max_word
发现问题:冯凡利被拆开了!
这种自己需要的词,需要自己加到我们的分词器的字典中!
二、解决问题:ik分词器增加自己的配置
1. 打开elasticsearch中
plugins/ik/config/IKAnalyzer.cfg.xml
2. 添加自己自定义的文件fengfanli.dic
,然后再config目录
下,新建此文件。其他的dic文件
都是默认自带的,但是不满足我们的需求,所以还要自定义自己需要的文件。
3. 重启 ES即可
看到已经加载了自定义的文件fengfanli.dic
,则自定义分词配置,则成功了,检验即可
三、kibana测试
对 超级喜欢冯凡利java
进行分词
1. ik_smart
2. ik_max_word
以后,则需要自己配置分词 就在自己定义的 dic 文件中进行配置即可。