hanlp中文智能分词自动识别文字提取实例-阿里云开发者社区

开发者社区> 人工智能> 正文

hanlp中文智能分词自动识别文字提取实例

简介:


需求:客户给销售员自己的个人信息,销售帮助客户下单,此过程需要销售人员手动复制粘贴收获地址,电话,姓名等等,一个智能的分词系统可以让销售人员一键识别以上各种信息

经过调研,找到了一下开源项目

1word 分词器

2ansj 分词器

3mmseg4j 分词器

4ik-analyzer 分词器

5jcseg 分词器

6fudannlp 分词器

7smartcn 分词器

8jieba 分词器

9stanford 分词器

10hanlp 分词器

 

最后选择了hanlp,步骤官网都有,下面演示智能匹配地址

1   List<Term> list = HanLP.newSegment().seg("汤姆江西省南昌市红谷滩新区111号电话12023232323");

2    System.out.println(list);

 

输出

 

1   [汤姆/nrf, 江西省/ns, 南昌市/ns, 红谷滩/nz, 新区/n, 111/m, /q, 电话/n, 12023232323/m]

 

大公告成,不过前提必须下载那个600Mdata包并导入,才可以识别地址,否则只是做了初步的识别

附上完整代码

 

   1     String str = "汤姆   江西省南昌市红谷滩新区111号     12023232323";

   2     String address = "";

   3     String phone = "";

   4     String name = "";

   5     List<Term> terms = NLPTokenizer.segment(str);

   6     System.out.println(terms);

   7     for (Term term : terms) {

   8         if (term.nature.startsWith("nr")){

   9             //nr代表人名

   10             name = term.word;

   11             System.out.println("name: " + term.word);

   12         }else if (term.nature.startsWith("m") && term.word.length() == 11){

   13             //m代表数字

    14            phone = term.word;

    15            System.out.println("电话: " + term.word);

    16        }

    17    }

 

    18    //由于地址包含了数字,解析的时候数字成为单独的个体,与实际不符,所以通过差集求出地址

    19    address = str.replace(phone, "").replace(name, "").trim();

    20    System.out.println("address: " + address);

 

运行结果

 

1    name: 汤姆

2    电话: 12023232323

3    address: 江西省南昌市红谷滩新区111

---------------------


 

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
人工智能
使用钉钉扫一扫加入圈子
+ 订阅

了解行业+人工智能最先进的技术和实践,参与行业+人工智能实践项目

其他文章