Lucene实用的分词匹配

简介:

本篇主要说一个lucene使用多个条件同时匹配的情况,如图所示

image

这个检索表示四个条件同时满足的结果,其中分类关键categoryname这个唯一字段,年级与科目比较复杂,它们两个同时关联propertyname字段,字段内容用|

分割,关键字它关键所有字段,在WEB项目中,首先需要对年级与科目进行处理,让它们形成一个|分割的形式

image

GroupPropertyName方法如下:

image

而在lucene底层需要对这三种检索形式进行设置

image

这样,我们就可以找到条件的结果集了。

本文转自博客园张占岭(仓储大叔)的博客,原文链接:Lucene实用的分词匹配,如需转载请自行联系原博主。

目录
相关文章
|
自然语言处理 BI
分词
中文分词介绍
分词
|
机器学习/深度学习 人工智能 自然语言处理
分词的那些事
使用阿里云学习分词,分词就是指将连续的自然语言文本切分成具有语义合理性和完整性的词汇序列的过程。
分词的那些事
|
自然语言处理
关于分词
假期重新把之前在新浪博客里面的文字梳理了下,搬到这里。本文围绕分词作一些入门资源信息介绍,偏分词应用。内容10年前的,不代表最新的内容啊。
143 0
|
存储 自然语言处理 索引
ElasticSearch配置IK灵活匹配单个汉字与词组
需求:在检索单个中文字符时,能够匹配包含该单字的文档;在检索词语时,就不按单字进行匹配。也就是说以商品为例,如果搜索“酒”字,能够匹配到关于“啤酒”“白酒”“红酒”等所有的文档;但如果搜索“啤酒”词语,就只匹配“啤酒”。另外,在匹配时,能够全文匹配的结果排在前面,包含分词匹配的结果排在后面,并且要按匹配度与销量来排序。
|
自然语言处理 Java 数据格式
solr6.6初探之分词篇
关于solr6.6搭建与配置可以参考 solr6.6初探之配置篇 在这里我们探讨一下分词的配置   一.关于分词 1.分词是指将一个中文词语拆成若干个词,提供搜索引擎进行查找,比如说:北京大学 是一个词那么进行拆分可以得到:北京与大学,甚至北京大学整个词也是一个语义 2.
1241 0
|
自然语言处理 Apache
Lucene扩展停用词字典与自定义词库
一、扩展停用词字典 IK Analyzer默认的停用词词典为IKAnalyzer2012_u6/stopword.dic,这个停用词词典并不完整,只有30多个英文停用词。
1452 0