Elasticsearch常用Java API编程 2

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: Elasticsearch常用Java API编程

5 根据文档ID删除职位

5.1 实现步骤

  1. 构建delete请求
  2. 使用RestHighLevelClient执行delete请求

参考代码:

@Override
public void deleteById(long id) throws IOException {
    // 1. 构建delete请求
    DeleteRequest deleteRequest = new DeleteRequest(JOB_IDX_NAME, id + "");
    // 2. 使用client执行delete请求
    restHighLevelClient.delete(deleteRequest, RequestOptions.DEFAULT);
}

5.2 编写测试用例

  1. 在测试用例中执行根据ID删除文档操作
  2. 使用VSCode发送请求,查看指定ID的文档是否已经被删除

参考代码:

@Test
public void deleteByIdTest() throws IOException {
    jobFullTextService.deleteById(1);
}

6 根据关键字检索数据

6.1 实现步骤

  1. 构建SearchRequest检索请求
  2. 创建一个SearchSourceBuilder专门用于构建查询条件
  3. 使用QueryBuilders.multiMatchQuery构建一个查询条件(搜索title、jd),并配置到SearchSourceBuilder
  4. 调用SearchRequest.source将查询条件设置到检索请求
  5. 执行RestHighLevelClient.search发起请求


  1. 遍历结果
  2. 获取命中的结果
  3. 将JSON字符串转换为对象
  4. 使用SearchHit.getId设置文档ID

参考代码:

@Override
public List<JobDetail> searchByKeywords(String keywords) throws IOException {
    // 1. 构建SearchRequest检索请求
    SearchRequest searchRequest = new SearchRequest(JOB_IDX_NAME);
    // 2. 创建一个SearchSourceBuilder专门用于构建查询条件
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    // 3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
    MultiMatchQueryBuilder queryBuilder = QueryBuilders.multiMatchQuery(keywords, "jd", "title");
    searchSourceBuilder.query(queryBuilder);
    // 4. 调用SearchRequest.source将查询条件设置到检索请求
    searchRequest.source(searchSourceBuilder);
    // 5. 执行RestHighLevelClient.search发起请求
    SearchResponse searchResponse = restHighLevelClient.search(searchRequest, RequestOptions.DEFAULT);
    // 6. 遍历结果
    SearchHits hits = searchResponse.getHits();
    List<JobDetail> jobDetailList = new ArrayList<>();
    for (SearchHit hit : hits) {
        // 1) 获取命中的结果
        String json = hit.getSourceAsString();
        // 2) 将JSON字符串转换为对象
        JobDetail jobDetail = JSON.parseObject(json, JobDetail.class);
        // 3) 使用SearchHit.getId设置文档ID
        jobDetail.setId(Long.parseLong(hit.getId()));
        jobDetailList.add(jobDetail);
    }
    return jobDetailList;
}

6.2 编写测试用例

搜索标题、职位描述中包含销售的职位。

@Test
public void searchByKeywordsTest() throws IOException {
    List<JobDetail> jobDetailList = jobFullTextService.searchByKeywords("销售");
    for (JobDetail jobDetail : jobDetailList) {
        System.out.println(jobDetail);
    }
}

7 分页检索

7.1 实现步骤

步骤和之前的关键字搜索类似,只不过构建查询条件的时候,需要加上分页的设置。


  1. 构建SearchRequest检索请求
  2. 创建一个SearchSourceBuilder专门用于构建查询条件
  3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
  4. 设置SearchSourceBuilder的from和size参数,构建分页
  5. 调用SearchRequest.source将查询条件设置到检索请求
  6. 执行RestHighLevelClient.search发起请求
  7. 遍历结果
  8. 获取命中的结果
  9. 将JSON字符串转换为对象
  10. 使用SearchHit.getId设置文档ID
  11. 将结果封装到Map结构中(带有分页信息)
    a) total -> 使用SearchHits.getTotalHits().value获取到所有的记录数
    b) content -> 当前分页中的数据
@Override
public Map<String, Object> searchByPage(String keywords, int pageNum, int pageSize) throws IOException {
    // 1. 构建SearchRequest检索请求
    SearchRequest searchRequest = new SearchRequest(JOB_IDX_NAME);
    // 2. 创建一个SearchSourceBuilder专门用于构建查询条件
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    // 3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
    MultiMatchQueryBuilder queryBuilder = QueryBuilders.multiMatchQuery(keywords, "jd", "title");
    searchSourceBuilder.query(queryBuilder);
    // 4. 设置SearchSourceBuilder的from和size参数,构建分页
    searchSourceBuilder.from((pageNum – 1) * pageSize);
    searchSourceBuilder.size(pageSize);
    // 4. 调用SearchRequest.source将查询条件设置到检索请求
    searchRequest.source(searchSourceBuilder);
    // 5. 执行RestHighLevelClient.search发起请求
    SearchResponse searchResponse = restHighLevelClient.search(searchRequest, RequestOptions.DEFAULT);
    // 6. 遍历结果
    SearchHits hits = searchResponse.getHits();
    List<JobDetail> jobDetailList = new ArrayList<>();
    for (SearchHit hit : hits) {
        // 1) 获取命中的结果
        String json = hit.getSourceAsString();
        // 2) 将JSON字符串转换为对象
        JobDetail jobDetail = JSON.parseObject(json, JobDetail.class);
        // 3) 使用SearchHit.getId设置文档ID
        jobDetail.setId(Long.parseLong(hit.getId()));
        jobDetailList.add(jobDetail);
    }
    // 8.  将结果封装到Map结构中(带有分页信息)
    // a)  total -> 使用SearchHits.getTotalHits().value获取到所有的记录数
    // b)  content -> 当前分页中的数据
    Map<String, Object> result = new HashMap<>();
    result.put("total", hits.getTotalHits().value);
    result.put("content", jobDetailList);
    return result;
}

6.7.2 编写测试用例

  1. 搜索关键字为“销售”,查询第0页,每页显示10条数据
  2. 打印搜索结果总记录数、对应分页的记录

参考代码:

@Test
public void searchByPageTest() throws IOException {
    Map<String, Object> resultMap = jobFullTextService.searchByPage("销售", 0, 10);
    System.out.println("总共:" + resultMap.get("total"));
    List<JobDetail> jobDetailList = (List<JobDetail>)resultMap.get("content");
    for (JobDetail jobDetail : jobDetailList) {
        System.out.println(jobDetail);
    }
}

8 scroll分页检索

8.1 实现步骤

判断scrollId是否为空

a) 如果为空,那么首次查询要发起scroll查询,设置滚动快照的有效时间

b) 如果不为空,就表示之前应发起了scroll,直接执行scroll查询就可以

步骤和之前的关键字搜索类似,只不过构建查询条件的时候,需要加上分页的设置。


scrollId为空:

  1. 构建SearchRequest检索请求
  2. 创建一个SearchSourceBuilder专门用于构建查询条件
  3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
  4. 调用SearchRequest.source将查询条件设置到检索请求
  5. 设置每页多少条记录,调用SearchRequest.scroll设置滚动快照有效时间
  6. 执行RestHighLevelClient.search发起请求
  7. 遍历结果
  8. 获取命中的结果

8.将JSON字符串转换为对象

9.使用SearchHit.getId设置文档ID

8.将结果封装到Map结构中(带有分页信息)

a) scroll_id -> 从SearchResponse中调用getScrollId()方法获取scrollId

b) content -> 当前分页中的数据

scollId不为空:

9.用之前查询出来的scrollId,构建SearchScrollRequest请求

10.设置scroll查询结果的有效时间

11.使用RestHighLevelClient执行scroll请求

@Override
public Map<String, Object> searchByScrollPage(String keywords, String scrollId, int pageSize) {
    Map<String, Object> result = new HashMap<>();
    List<JobDetail> jobList = new ArrayList<>();
    try {
            SearchResponse searchResponse = null;
            if(scrollId == null) {
                // 1. 创建搜索请求
                SearchRequest searchRequest = new SearchRequest("job_idx");
                // 2. 构建查询条件
                SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
                searchSourceBuilder.query(QueryBuilders.multiMatchQuery(keywords, "title", "jd"));
                // 3. 设置分页大小
                searchSourceBuilder.size(pageSize);
                // 4. 设置查询条件、并设置滚动快照有效时间
                searchRequest.source(searchSourceBuilder);
                searchRequest.scroll(TimeValue.timeValueMinutes(1));
                // 5. 发起请求
                searchResponse = client.search(searchRequest, RequestOptions.DEFAULT);
            }
            else {
                SearchScrollRequest searchScrollRequest = new SearchScrollRequest(scrollId);
                searchScrollRequest.scroll(TimeValue.timeValueMinutes(1));
                searchResponse = client.scroll(searchScrollRequest, RequestOptions.DEFAULT);
            }
            // 6. 迭代响应结果
            SearchHits hits = searchResponse.getHits();
            for (SearchHit hit : hits) {
                JobDetail jobDetail = JSONObject.parseObject(hit.getSourceAsString(), JobDetail.class);
                jobDetail.setId(Long.parseLong(hit.getId()));
                jobList.add(jobDetail);
            }
            result.put("content", jobList);
            result.put("scroll_id", searchResponse.getScrollId());
        }
    catch (IOException e) {
        e.printStackTrace();
    }
    return result;
}

8.2 编写测试用例

  1. 编写第一个测试用例,不带scrollId查询
  2. 编写第二个测试用例,使用scrollId查询
@Test
public void searchByScrollPageTest1() throws IOException {
    Map<String, Object> result = jobFullTextService.searchByScrollPage("销售", null, 10);
    System.out.println("scrollId: " + result.get("scrollId"));
    List<JobDetail> content = (List<JobDetail>)result.get("content");
    for (JobDetail jobDetail : content) {
        System.out.println(jobDetail);
    }
}
@Test
public void searchByScrollPageTest2() throws IOException {
    Map<String, Object> result = jobFullTextService.searchByScrollPage("销售", "DXF1ZXJ5QW5kRmV0Y2gBAAAAAAAAAA0WRG4zZFVwODJSU2Uxd1BOWkQ4cFdCQQ==", 10);
    System.out.println("scrollId: " + result.get("scrollId"));
    List<JobDetail> content = (List<JobDetail>)result.get("content");
    for (JobDetail jobDetail : content) {
        System.out.println(jobDetail);
    }
}

9 高亮查询

9.1 高亮查询简介

在进行关键字搜索时,搜索出的内容中的关键字会显示不同的颜色,称之为高亮。百度搜索关键字"csdn"


京东商城搜索"笔记本"

9.2 高亮显示的html分析

通过开发者工具查看高亮数据的html代码实现:

ElasticSearch可以对查询出的内容中关键字部分进行标签和样式的设置,但是你需要告诉ElasticSearch使用什么标签对高亮关键字进行包裹

9.3 实现高亮查询

1.在我们构建查询请求时,我们需要构建一个HighLightBuilder,专门来配置高亮查询。

a) 构建一个HighlightBuilder

b) 设置高亮字段(title、jd)

c) 设置高亮前缀()

d) 设置高亮后缀()

e) 将高亮添加到SearchSourceBuilder

代码如下:

// 设置高亮
HighlightBuilder highlightBuilder = new HighlightBuilder();
highlightBuilder.field("title");
highlightBuilder.field("jd");
highlightBuilder.preTags("<font color='red'>");
highlightBuilder.postTags("</font>");
searchSourceBuilder.highlighter(highlightBuilder);

2.我们将高亮的查询结果取出,并替换掉原先没有高亮的结果
a) 获取高亮字段
i. 获取title高亮字段
ii. 获取jd高亮字段
b) 将高亮字段进行替换普通字段
i. 处理title高亮,判断高亮是否为空,不为空则将高亮碎片拼接在一起
ii. 替换原有普通字段

参考代码:

// 1. 获取高亮字段
Map<String, HighlightField> highlightFieldMap = hit.getHighlightFields();
// 1.1 获取title高亮字段
HighlightField titleHl = highlightFieldMap.get("title");
// 1.2 获取jd高亮字段
HighlightField jdHl = highlightFieldMap.get("jd");
// 2. 将高亮字段进行替换普通字段
// 2.1 处理title高亮,判断高亮是否为空,不为空则将高亮Fragment(碎片)拼接在一起,替换原有普通字段
if(titleHl != null) {
    Text[] fragments = titleHl.getFragments();
    StringBuilder stringBuilder = new StringBuilder();
    for (Text fragment : fragments) {
        stringBuilder.append(fragment.string());
    }
    jobDetail.setTitle(stringBuilder.toString());
}
// 2.2 处理jd高亮
if(jdHl != null) {
    Text[] fragments = jdHl.getFragments();
    StringBuilder stringBuilder = new StringBuilder();
    for (Text fragment : fragments) {
        stringBuilder.append(fragment.string());
    }
    jobDetail.setJd(stringBuilder.toString());
}

我们再查询,发现查询的结果中就都包含了高亮。

10 完整参考代码

public class JobFullTextServiceImpl implements JobFullTextService {
    private RestHighLevelClient restHighLevelClient;
    private static final String JOB_IDX_NAME = "job_idx";
    public JobFullTextServiceImpl() {
        restHighLevelClient = new RestHighLevelClient(RestClient.builder(
                new HttpHost("node1.itcast.cn", 9200, "http")
                , new HttpHost("node2.itcast.cn", 9200, "http")
                , new HttpHost("node3.itcast.cn", 9200, "http")
        ));
    }
    @Override
    public void add(JobDetail jobDetail) {
        // 1. 构建IndexRequest对象,用来描述ES发起请求的数据。
        IndexRequest indexRequest = new IndexRequest(JOB_IDX_NAME);
        // 2. 设置文档ID。
        indexRequest.id(jobDetail.getId() + "");
        // 3. 构建一个实体类对象,并使用FastJSON将实体类对象转换为JSON。
        String json = JSON.toJSONString(jobDetail);
        // 4. 使用IndexRequest.source方法设置请求数据。
        indexRequest.source(json, XContentType.JSON);
        try {
            // 5. 使用ES High level client调用index方法发起请求
            restHighLevelClient.index(indexRequest, RequestOptions.DEFAULT);
        } catch (IOException e) {
            e.printStackTrace();
        }
        System.out.println("索引创建成功!");
    }
    @Override
    public void update(JobDetail jobDetail) throws IOException {
        // 1. 判断对应ID的文档是否存在
        // a) 构建GetRequest
        GetRequest getRequest = new GetRequest(JOB_IDX_NAME, jobDetail.getId() + "");
        // b) 执行client的exists方法,发起请求,判断是否存在
        boolean exists = restHighLevelClient.exists(getRequest, RequestOptions.DEFAULT);
        if(!exists) return;
        // 2. 构建UpdateRequest请求
        UpdateRequest updateRequest = new UpdateRequest(JOB_IDX_NAME, jobDetail.getId() + "");
        // 3. 设置UpdateRequest的文档,并配置为JSON格式
        updateRequest.doc(JSON.toJSONString(jobDetail), XContentType.JSON);
        // 4. 执行client发起update请求
        restHighLevelClient.update(updateRequest, RequestOptions.DEFAULT);
    }
    @Override
    public JobDetail findById(long id) throws IOException {
        // 1. 构建GetRequest请求。
        GetRequest getRequest = new GetRequest(JOB_IDX_NAME, id + "");
        // 2. 使用RestHighLevelClient.get发送GetRequest请求,并获取到ES服务器的响应。
        GetResponse response = restHighLevelClient.get(getRequest, RequestOptions.DEFAULT);
        // 3. 将ES响应的数据转换为JSON字符串
        String json = response.getSourceAsString();
        // 4. 并使用FastJSON将JSON字符串转换为JobDetail类对象
        JobDetail jobDetail = JSONObject.parseObject(json, JobDetail.class);
        // 5. 设置ID字段
        jobDetail.setId(id);
        return jobDetail;
    }
    @Override
    public void deleteById(long id) throws IOException {
        // 1. 构建delete请求
        DeleteRequest deleteRequest = new DeleteRequest(JOB_IDX_NAME, id + "");
        // 2. 使用client执行delete请求
        restHighLevelClient.delete(deleteRequest, RequestOptions.DEFAULT);
    }
    @Override
    public List<JobDetail> searchByKeywords(String keywords) throws IOException {
        // 1. 构建SearchRequest检索请求
        SearchRequest searchRequest = new SearchRequest(JOB_IDX_NAME);
        // 2. 创建一个SearchSourceBuilder专门用于构建查询条件
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        // 3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
        MultiMatchQueryBuilder queryBuilder = QueryBuilders.multiMatchQuery(keywords, "jd", "title");
        searchSourceBuilder.query(queryBuilder);
        // 4. 调用SearchRequest.source将查询条件设置到检索请求
        searchRequest.source(searchSourceBuilder);
        // 5. 执行RestHighLevelClient.search发起请求
        SearchResponse searchResponse = restHighLevelClient.search(searchRequest, RequestOptions.DEFAULT);
        // 6. 遍历结果
        SearchHits hits = searchResponse.getHits();
        List<JobDetail> jobDetailList = new ArrayList<>();
        for (SearchHit hit : hits) {
            // 1) 获取命中的结果
            String json = hit.getSourceAsString();
            // 2) 将JSON字符串转换为对象
            JobDetail jobDetail = JSON.parseObject(json, JobDetail.class);
            // 3) 使用SearchHit.getId设置文档ID
            jobDetail.setId(Long.parseLong(hit.getId()));
            jobDetailList.add(jobDetail);
        }
        return jobDetailList;
    }
    @Override
    public Map<String, Object> searchByPage(String keywords, int pageNum, int pageSize) throws IOException {
        // 1. 构建SearchRequest检索请求
        SearchRequest searchRequest = new SearchRequest(JOB_IDX_NAME);
        // 2. 创建一个SearchSourceBuilder专门用于构建查询条件
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        // 3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
        MultiMatchQueryBuilder queryBuilder = QueryBuilders.multiMatchQuery(keywords, "jd", "title");
        searchSourceBuilder.query(queryBuilder);
        // 4. 设置SearchSourceBuilder的from和size参数,构建分页
        searchSourceBuilder.from(pageNum);
        searchSourceBuilder.size(pageSize);
        // 4. 调用SearchRequest.source将查询条件设置到检索请求
        searchRequest.source(searchSourceBuilder);
        // 5. 执行RestHighLevelClient.search发起请求
        SearchResponse searchResponse = restHighLevelClient.search(searchRequest, RequestOptions.DEFAULT);
        // 6. 遍历结果
        SearchHits hits = searchResponse.getHits();
        List<JobDetail> jobDetailList = new ArrayList<>();
        for (SearchHit hit : hits) {
            // 1) 获取命中的结果
            String json = hit.getSourceAsString();
            // 2) 将JSON字符串转换为对象
            JobDetail jobDetail = JSON.parseObject(json, JobDetail.class);
            // 3) 使用SearchHit.getId设置文档ID
            jobDetail.setId(Long.parseLong(hit.getId()));
            jobDetailList.add(jobDetail);
        }
        // 8.  将结果封装到Map结构中(带有分页信息)
        // a)  total -> 使用SearchHits.getTotalHits().value获取到所有的记录数
        // b)  content -> 当前分页中的数据
        Map<String, Object> result = new HashMap<>();
        result.put("total", hits.getTotalHits().value);
        result.put("content", jobDetailList);
        return result;
    }
    @Override
    public Map<String, Object> searchByScrollPage(String keywords, String scrollId, int pageSize) throws IOException {
        SearchResponse searchResponse = null;
        if(scrollId == null) {
            // 1. 构建SearchRequest检索请求
            SearchRequest searchRequest = new SearchRequest(JOB_IDX_NAME);
            // 2. 创建一个SearchSourceBuilder专门用于构建查询条件
            SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
            // 3. 使用QueryBuilders.multiMatchQuery构建一个查询条件,并配置到SearchSourceBuilder
            MultiMatchQueryBuilder queryBuilder = QueryBuilders.multiMatchQuery(keywords, "jd", "title");
            searchSourceBuilder.query(queryBuilder);
            searchSourceBuilder.size(pageSize);
            // 设置高亮查询
            HighlightBuilder highlightBuilder = new HighlightBuilder();
            highlightBuilder.preTags("<font color='red'>");
            highlightBuilder.postTags("</font>");
            highlightBuilder.field("title");
            highlightBuilder.field("jd");
            searchSourceBuilder.highlighter(highlightBuilder);
            // 4. 调用searchRequest.scroll设置滚动快照有效时间
            searchRequest.scroll(TimeValue.timeValueMinutes(10));
            // 5. 调用SearchRequest.source将查询条件设置到检索请求
            searchRequest.source(searchSourceBuilder);
            // 6. 执行RestHighLevelClient.search发起请求
            searchResponse = restHighLevelClient.search(searchRequest, RequestOptions.DEFAULT);
        }
        else {
            SearchScrollRequest searchScrollRequest = new SearchScrollRequest(scrollId);
            searchScrollRequest.scroll(TimeValue.timeValueMinutes(10));
            searchResponse = restHighLevelClient.scroll(searchScrollRequest, RequestOptions.DEFAULT);
        }
        if(searchResponse != null) {
            // 7. 遍历结果
            SearchHits hits = searchResponse.getHits();
            List<JobDetail> jobDetailList = new ArrayList<>();
            for (SearchHit hit : hits) {
                // 1) 获取命中的结果
                String json = hit.getSourceAsString();
                // 2) 将JSON字符串转换为对象
                JobDetail jobDetail = JSON.parseObject(json, JobDetail.class);
                // 3) 使用SearchHit.getId设置文档ID
                jobDetail.setId(Long.parseLong(hit.getId()));
                // 1. 获取高亮字段
                Map<String, HighlightField> highlightFieldMap = hit.getHighlightFields();
                // 1.1 获取title高亮字段
                HighlightField titleHl = highlightFieldMap.get("title");
                // 1.2 获取jd高亮字段
                HighlightField jdHl = highlightFieldMap.get("jd");
                // 2. 将高亮字段进行替换普通字段
                // 2.1 处理title高亮,判断高亮是否为空,不为空则将高亮Fragment(碎片)拼接在一起,替换原有普通字段
                if(titleHl != null) {
                    Text[] fragments = titleHl.getFragments();
                    StringBuilder stringBuilder = new StringBuilder();
                    for (Text fragment : fragments) {
                        stringBuilder.append(fragment.string());
                    }
                    jobDetail.setTitle(stringBuilder.toString());
                }
                // 2.2 处理jd高亮
                if(jdHl != null) {
                    Text[] fragments = jdHl.getFragments();
                    StringBuilder stringBuilder = new StringBuilder();
                    for (Text fragment : fragments) {
                        stringBuilder.append(fragment.string());
                    }
                    jobDetail.setJd(stringBuilder.toString());
                }
                jobDetailList.add(jobDetail);
            }
            // 8.  将结果封装到Map结构中(带有分页信息)
            // a)  total -> 使用SearchHits.getTotalHits().value获取到所有的记录数
            // b)  content -> 当前分页中的数据
            Map<String, Object> result = new HashMap<>();
            result.put("scrollId", searchResponse.getScrollId());
            result.put("content", jobDetailList);
            return result;
        }
        return null;
    }
    @Override
    public void close() {
        try {
            restHighLevelClient.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}


相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
目录
相关文章
|
17天前
|
Java 程序员
Java编程中的异常处理:从基础到高级
在Java的世界中,异常处理是代码健壮性的守护神。本文将带你从异常的基本概念出发,逐步深入到高级用法,探索如何优雅地处理程序中的错误和异常情况。通过实际案例,我们将一起学习如何编写更可靠、更易于维护的Java代码。准备好了吗?让我们一起踏上这段旅程,解锁Java异常处理的秘密!
|
1天前
|
算法 Java 调度
java并发编程中Monitor里的waitSet和EntryList都是做什么的
在Java并发编程中,Monitor内部包含两个重要队列:等待集(Wait Set)和入口列表(Entry List)。Wait Set用于线程的条件等待和协作,线程调用`wait()`后进入此集合,通过`notify()`或`notifyAll()`唤醒。Entry List则管理锁的竞争,未能获取锁的线程在此排队,等待锁释放后重新竞争。理解两者区别有助于设计高效的多线程程序。 - **Wait Set**:线程调用`wait()`后进入,等待条件满足被唤醒,需重新竞争锁。 - **Entry List**:多个线程竞争锁时,未获锁的线程在此排队,等待锁释放后获取锁继续执行。
24 12
|
4天前
|
存储 人工智能 API
(Elasticsearch)使用阿里云 infererence API 及 semantic text 进行向量搜索
本文展示了如何使用阿里云 infererence API 及 semantic text 进行向量搜索。
|
12天前
|
算法 Java API
如何使用Java开发获得淘宝商品描述API接口?
本文详细介绍如何使用Java开发调用淘宝商品描述API接口,涵盖从注册淘宝开放平台账号、阅读平台规则、创建应用并申请接口权限,到安装开发工具、配置开发环境、获取访问令牌,以及具体的Java代码实现和注意事项。通过遵循这些步骤,开发者可以高效地获取商品详情、描述及图片等信息,为项目和业务增添价值。
44 10
|
21天前
|
设计模式 Java 开发者
Java多线程编程的陷阱与解决方案####
本文深入探讨了Java多线程编程中常见的问题及其解决策略。通过分析竞态条件、死锁、活锁等典型场景,并结合代码示例和实用技巧,帮助开发者有效避免这些陷阱,提升并发程序的稳定性和性能。 ####
|
21天前
|
缓存 Java 开发者
Java多线程编程的陷阱与最佳实践####
本文深入探讨了Java多线程编程中常见的陷阱,如竞态条件、死锁和内存一致性错误,并提供了实用的避免策略。通过分析典型错误案例,本文旨在帮助开发者更好地理解和掌握多线程环境下的编程技巧,从而提升并发程序的稳定性和性能。 ####
|
14天前
|
安全 算法 Java
Java多线程编程中的陷阱与最佳实践####
本文探讨了Java多线程编程中常见的陷阱,并介绍了如何通过最佳实践来避免这些问题。我们将从基础概念入手,逐步深入到具体的代码示例,帮助开发者更好地理解和应用多线程技术。无论是初学者还是有经验的开发者,都能从中获得有价值的见解和建议。 ####
|
14天前
|
Java 调度
Java中的多线程编程与并发控制
本文深入探讨了Java编程语言中多线程编程的基础知识和并发控制机制。文章首先介绍了多线程的基本概念,包括线程的定义、生命周期以及在Java中创建和管理线程的方法。接着,详细讲解了Java提供的同步机制,如synchronized关键字、wait()和notify()方法等,以及如何通过这些机制实现线程间的协调与通信。最后,本文还讨论了一些常见的并发问题,例如死锁、竞态条件等,并提供了相应的解决策略。
39 3
|
20天前
|
Java API 开发者
Java中的Lambda表达式与Stream API的协同作用
在本文中,我们将探讨Java 8引入的Lambda表达式和Stream API如何改变我们处理集合和数组的方式。Lambda表达式提供了一种简洁的方法来表达代码块,而Stream API则允许我们对数据流进行高级操作,如过滤、映射和归约。通过结合使用这两种技术,我们可以以声明式的方式编写更简洁、更易于理解和维护的代码。本文将介绍Lambda表达式和Stream API的基本概念,并通过示例展示它们在实际项目中的应用。
|
19天前
|
开发框架 安全 Java
Java 反射机制:动态编程的强大利器
Java反射机制允许程序在运行时检查类、接口、字段和方法的信息,并能操作对象。它提供了一种动态编程的方式,使得代码更加灵活,能够适应未知的或变化的需求,是开发框架和库的重要工具。
35 2
下一篇
DataWorks