开发者社区> 问答> 正文

Hanlp分词器的停用词无效:配置报错 

使用lucene测试hanlp的分词效果,发现hanlp配置的停用词根本不生效,请问有遇到过这问题的吗? hanlp的停用词 路径说是不用改

#停用词词典路径 CoreStopWordDictionaryPath=data/dictionary/stopwords.txt
我的路径也是对的,因为其余的配置没问题,但是stopwords.txt文件中 的停用词根本没有作用,lucene在创建索引库的时候,还是会将停用词 分词存储

展开
收起
kun坤 2020-05-31 22:32:44 923 0
3 条回答
写回答
取消 提交回答
  • 怎么解决的?

    2020-11-10 10:21:11
    赞同 展开评论 打赏
  • 我也遇到了这个问题,题主解决了这个问题了吗?

    2020-08-25 11:29:36
    赞同 展开评论 打赏
  • java代码里添加这一句,开启停用词,这个是标准分词示例。
    List<Term> termList = CoreStopWordDictionary.apply(StandardTokenizer.segment(sentence));
    2020-05-31 22:32:50
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载