solr常用检索查询业务demo

本文涉及的产品
云数据库 Tair(兼容Redis),内存型 2GB
云原生多模数据库 Lindorm,多引擎 多规格 0-4节点
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
简介: 本文针对已经入门的同学,提供各种类型的场景查询demo,以及一些分析统计型的查询demo。这些demo基本上涵盖大部分应用企业的solr查询需求功能。

概述

本文针对已经入门的同学,提供各种类型的场景查询demo,以及一些分析统计型的查询demo。
如果未接触过solr的同学,可以先参考 Solr快速入门文档阅读推荐 文章快速入门学习一下solr。
本demo积累为企业用户使用咨询时整理的,并不是特别多,正因如此,说明大部分企业查询检索功能都是solr的基础功能,上手简单。还有少许排序导出、分析统计的demo。

基础任意查询功能demo

下载git项目 aliyun-apsaradb-hbase-demo ,在solr模块中,包含了常用的每种简单查询SolrJ api使用方式,还有cursor分页、facet统计等demo,可以基于此直接改造用户业务合适的查询逻辑使用。

数据准备:

  • 创建collection
  • 使用SolrAddDocumentDemo.java示例插入100行示例数据

SolrQueryDemo.java包含的查询demo列表:

  • match all query 全匹配查询
  • term query 词汇精确查询
  • wildcard query 通配符查询
  • fuzzy query 模糊查询
  • phrase query 短语查询
  • proximity query 邻近查询
  • range query 范围查询
  • multi condition query 多条件任意组合
  • pagination 常规分页与cursor深翻
  • facet统计&function query等

全量匹配与导出demo

以下两个demo使用预先插入数据如下

{"id":"1","group_s":"group1","test_i":"5","test_l":"10"},
{"id":"2","group_s":"group1","test_i":"5","test_l":"1000"},
{"id":"3","group_s":"group1","test_i":"5","test_l":"1000"},
{"id":"4","group_s":"group1","test_i":"10","test_l":"10"},
{"id":"5","group_s":"group2","test_i":"5","test_l":"10"},
{"id":"6","group_s":"group2","test_i":"5","test_l":"10"},
{"id":"7","group_s":"group2","test_i":"5","test_l":"1000"},
{"id":"8","group_s":"group2","test_i":"5","test_l":"1000"},
{"id":"9","group_s":"group2","test_i":"10","test_l":"10"},
{"id":"10","group_s":"group3","test_i":"4","test_l":"7"},
{"id":"11","group_s":"group3","test_i":"3","test_l":"9"}

Demo1 全量导出复杂条件并带排序的匹配结果数据集合

例如:某公司400亿数据根据各种匹配条件,并按照时间排序导出结果数据列表,再提供第三方机构二次利用。

    CloudSolrClient solrClient = new CloudSolrClient.Builder().withZkHost("localhost:9983").withZkChroot("/").build();
    String collection = "test";

    String currentMark =  null;
    String nextCursorMark = CursorMarkParams.CURSOR_MARK_START;
    do {
      currentMark = nextCursorMark;
      SolrQuery solrQuery = new SolrQuery("test_i:5 AND test_l:[999 TO *]");
      solrQuery.setParam("sort","test_i desc,id desc");
      solrQuery.add(CursorMarkParams.CURSOR_MARK_PARAM, currentMark);
      solrQuery.setRows(1);

      QueryResponse response = solrClient.query(collection, solrQuery);
      nextCursorMark = response.getNextCursorMark();
      System.out.println(response);
    } while (!nextCursorMark.equals(currentMark));

    solrClient.close();

Demo2 分组后取每个分组取min test_i的一条记录,并全量导出所有group

  public static void main(String[] args) throws Exception{
    CloudSolrClient solrClient = new CloudSolrClient.Builder().withZkHost("localhost:9983").withZkChroot("/").build();
    String collection = "test";

    String currentMark =  null;
    String nextCursorMark = CursorMarkParams.CURSOR_MARK_START;
    do {
      currentMark = nextCursorMark;
      SolrQuery solrQuery = new SolrQuery("*:*");
      solrQuery.setParam("fq","{!collapse field=group_s sort=$sort}");
      solrQuery.setParam("sort","test_i desc,id asc");
      solrQuery.add(CursorMarkParams.CURSOR_MARK_PARAM, currentMark);
      solrQuery.setRows(1);

      QueryResponse response = solrClient.query(collection, solrQuery);
      nextCursorMark = response.getNextCursorMark();
      System.out.println(response);
    } while (!nextCursorMark.equals(currentMark));

    solrClient.close();

  }

聚合统计

以下两个demo使用预先插入数据如下

{"id":"1","group_s":"group1","test_i":"5","test_l":"10"},
{"id":"2","group_s":"group1","test_i":"5","test_l":"1000"},
{"id":"3","group_s":"group1","test_i":"5","test_l":"1000"},
{"id":"4","group_s":"group1","test_i":"10","test_l":"10"},
{"id":"5","group_s":"group2","test_i":"5","test_l":"10"},
{"id":"6","group_s":"group2","test_i":"5","test_l":"10"},
{"id":"7","group_s":"group2","test_i":"5","test_l":"1000"},
{"id":"8","group_s":"group2","test_i":"5","test_l":"1000"},
{"id":"9","group_s":"group2","test_i":"10","test_l":"10"},
{"id":"10","group_s":"group3","test_i":"4","test_l":"7"},
{"id":"11","group_s":"group3","test_i":"3","test_l":"9"}

Demo1 求min、max、avg、sum,单个field 与多个条件function处理的case

最大值如下:

curl "http://localhost:8983/solr/test/query" -d 'q=*:*&rows=0&json.facet={x:"max(sub(test_l,test_i))"}'

平均值如下:

curl "http://localhost:8983/solr/test/query" -d 'q=*:*&rows=0&json.facet={x:"avg(sub(test_l,test_i))"}' 

其中sub(test_l,test_i)即为 "test_l - test_i"的意思,更多函数可以参考Solr官方文档function Query部分

Demo2 针对结果进行facet分类统计,做侧边导航

需求背景为常见的博客、电商网站搜索栏,输入关键字后,除了匹配结果列表给用户展示外,对这些结果能进行二次分类统计,作为二次导航,方便用户快速搜索更相关的内容。场景如下图:
_

阿里云栖社区搜索”solr”关键字的结果展示中,除了出现右边的相关文章列表外,还对所有匹配solr关键字的结果,进行一个分类统计,例如左上角的框框中,展示这些相关的文章中,博客、问答、聚能聊等主题的匹配条数,如果用户此时需要的是问答相关的文章,那么他就可以快速点击这个问答的tab进一步搜索想要的内容,从而提升了用户搜索体验。
实现方式可以参考aliyun-apsaradb-hbase-demo 中SolrQueryDemo.java的 facetRangeDemo、facetFieldDemo 两个示例,可以自定义各种类型的查询,来对匹配结果的二次分类统计。

小结

本文整理了常用的solr 查询demo代码,以及部分需要分析统计的查询示例,如有其他查询需求与疑问,可以留言提问,后续更新可以增加上,方便其他用户拿来即用。

目录
相关文章
|
Web App开发 网络协议 安全
|
数据可视化 计算机视觉 异构计算
确保您已经安装了必要的库,包括`torch`、`torchvision`、`segmentation_models_pytorch`、`PIL`(用于图像处理)和`matplotlib`(用于结果可视化)。您可以使用pip来安装这些库:
确保您已经安装了必要的库,包括`torch`、`torchvision`、`segmentation_models_pytorch`、`PIL`(用于图像处理)和`matplotlib`(用于结果可视化)。您可以使用pip来安装这些库:
|
JSON 监控 Java
Elasticsearch 8.X reindex 源码剖析及提速指南
Elasticsearch 8.X reindex 源码剖析及提速指南
在Linux中,Rsync 同步时,如果要同步的源中有软连接,如何把软连接的目标文件或者目录同步?
在Linux中,Rsync 同步时,如果要同步的源中有软连接,如何把软连接的目标文件或者目录同步?
|
Java 测试技术 API
如何检查字符串是否仅包含数字
【8月更文挑战第22天】
640 0
|
存储 缓存 前端开发
【jvm系列-07】深入理解执行引擎,解释器、JIT即时编译器
【jvm系列-07】深入理解执行引擎,解释器、JIT即时编译器
706 2
|
NoSQL Linux 网络安全
Redis集群搭建
Redis集群搭建
|
设计模式 负载均衡 Java
Feign如何设置超时时间,不同情况还真不一样,别设置错了
大家好,我是三友~~ 今天来聊一聊前段时间看到的一个面试题,也是在实际项目中需要考虑的一个问题,Feign的超时时间如何设置? Feign的超时时间设置方式并不固定,它取决于Feign在项目中是如何使用的,不同的使用方式,超时时间设置方式也不大相同,甚至还可能有坑。
Feign如何设置超时时间,不同情况还真不一样,别设置错了
|
架构师 Java 测试技术
软件设计实践:如何使用UML完成一个设计文档?
软件设计实践:如何使用UML完成一个设计文档?UML 建模可以很复杂,也可以很简单,简单掌握类图、时序图、组件图、部署图、用例 图、状态图、活动图这 7 种模型图,根据场景的不同,灵活在需求分析、概要设计和详细设计阶段绘制对应的模型图,可以实实在在地做好软件建模,搞好系统设计,做一个掌控局面、引领技术团队的架构师。
481 1
软件设计实践:如何使用UML完成一个设计文档?
|
存储 Prometheus 监控
【Grafana】基于CentOS 7系统安装部署Grafana服务端
【Grafana】基于CentOS 7系统安装部署Grafana服务端
1423 0