【一文读懂】基于Havenask向量检索+大模型,构建可靠的智能问答服务

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
OpenSearch LLM智能问答版免费试用套餐,存储1GB首月+计算资源100CU
推荐全链路深度定制开发平台,高级版 1个月
简介: Havenask是阿里巴巴智能引擎事业部自研的开源高性能搜索引擎,深度支持了包括淘宝、天猫、菜鸟、高德、饿了么在内的几乎整个阿里的搜索业务。本文针对性介绍了Havenask作为一款高性能的召回搜索引擎,应用在向量检索和LLM智能问答场景的解决方案和核心优势。通过Havenask向量检索+大模型可以构建可靠的垂直领域的智能问答方案,同时快速在业务场景中进行实践及应用。

一、 Havenask介绍

Havenask 是阿里巴巴广泛使用的自研大规模分布式检索系统,是过去十多年阿里在电商领域积累下来的核心竞争力产品,广泛应用在搜推广和大数据检索等典型场景。在2022年云栖大会-云计算加速开源创新论坛上完成开源首发,同时作为阿里云开放搜索OpenSearch底层搜索引擎,OpenSearch 自2014年商业化,目前已有千余家外部客户。


二、 向量检索

近年来,随着短视频、电商等领域的繁荣,产生了越来越多的非结构化数据,如图片、音频、视频、行为数据等。人们通常使用人工智能算法从中提取出特征向量,再通过对这些特征向量的计算和检索来实现对非结构化数据的分析与检索,以实现搜索推荐、人脸识别等功能场景。因此,需要存储这些特征向量,并进行高效率的检索。


传统的基于关键字的信息检索,只有命中全部或者部分关键字的数据才会被召回。与此不同的是,向量检索是一种近似搜索(Approximate Nearest Neighbor),从大量数据中找出最相似的n个结果。在业界主要有两种支持向量检索的方式:一是针对向量构建索引、提供召回服务的向量数据库。另一种是将向量检索融合进传统的搜索引擎或中,作为搜索引擎的一种索引。将传统倒排索引与向量检索配合使用,二者互补,提高召回结果的相关性。


Havenask作为传统的搜索引擎,深度集成阿里自研的高性能向量库Proxima,实现了对向量检索的支持。在Havenask中有多种倒排索引,如文本索引、数字索引、字符串索引等。而向量作为一种特殊的自定义索引,与其他普通的倒排索引一样地使用,从而可以将向量检索与文本检索结合起来,实现向量与文本的混合检索。


1、使用方式

  • 与文本倒排结合

目前,向量索引是Havenask的一种自定义索引,可以与其他倒排索引一起结合使用。业务上比较常见的使用方式,如在nlp场景,将向量检索的结果与文本检索的结果合并起来,丰富结果内容。文本检索保证查询的精确度,向量检索扩展语义提供更广泛的内容。二者相互补充,能够提升结果的准确性,降低无结果率。

vector:'0.1,0.2,0.3' OR ((title:'havenask' OR content:'havenask') AND type:'1')


解析后的查询语法树:

每个叶子节点做索引的查询,之后合并结果。


  • 带条件过滤检索

在大多数业务场景中,通常会带有特定的过滤条件,只召回满足条件的结果。Havenask的向量检索将条件过滤和向量相似度计算结合起来,精确判断过滤条件,进行高效的向量检索。从而使得结果更加准确,且不会缺少结果。

如:

Query: vector:'0.1,0.2,0.3'
Filter: count > 10


  • 带标签检索

在一些场景下,数据是按某些特定的标签进行分类。 如数据按用户维度组织,一次查询只查询某个指定用户下的数据。针对这种场景,Havenask提供了按标签查询的功能,在建索引时就将数据按标签分类,从物理上将数据按标签隔离,分别构建索引。查询时,只需要检索相应用户的索引数据。这样能够提高向量检索的性能和准确性。


2、索引构建方式

目前Havenask支持HNSW(图)、QC(量化距离)、Linear(暴力计算)三种索引构建方式。

  • HNSW

HNSW是经典的多层图算法,召回率高、性能好,适用于对召回结果要求高的场景。


  • QC

QC表示量化聚类,与Fassis的IVF类似,通过聚类的方式构建向量索引。且支持int8、int16量化,量化后能够显著地减少索引的体积,并且保证较高的召回率。适用于超大规模的向量场景,节省资源。


  • Linear

Linear为暴力计算,会遍历所有的索引数据,适用于数据规模非常小的场景。


三、 LLM问答

ChatGPT的出现带起了大模型热,大模型能够帮助从大量的信息里总结出关键的信息。很多企业或者个人都希望构建知识库,通过大模型进行归纳、总结后回答问题。

下图是典型的知识库构建流程:

整体流程可以分为两部分:数据处理和问答流程。


  • 数据处理

这部分主要功能是将已有的知识数据向量化,依赖文本向量化模型,将文本数据向量化,生成的向量数据存入Havenask中。处理步骤如下:

  1. 从原始文档中提取出所有的文本数据,按文本语义将文本切分成多个chunk
  2. 将这些chunk丢给文本模型,生成embedding数据
  3. 将embedding和chunk,以及chunk所属的原始文档的一些属性信息(如文件名、文章地址等)一起存入Havenask中


  • 问答流程

这部分主要处理与LLM的交互,依赖和数据处理一样的文本模型以及一个大模型。可以分为三个步骤:

  1. 将输入的问题丢给文本模型,生成embedding数据
  2. 将embedding数据以及一些其他的查询条件(如:查询的用户ID等)给到Havenask,查询获取最相关或相似的内容。这里的查询条件可以将向量与文本以及其他一些属性信息相结合,以便查询出更加精确的知识,降低无结果率。
  3. 让LLM根据获得的最相关的内容,以及问题推理出答案。查询LLM的prompt可能如下:
请根据以下已知信息,简洁和专业的来回答用户的问题。如果无法从中得到答案,请说不知道,不允许在答案中添加编造成分,答案请使用中文。
已知信息:
   内容1
   内容2
   ...
问题:
   问题内容


最后将结果展示给用户:


四、 性能

下面是Havenask向量检索的测试数据:

数据集

测试机型

算法

召回率

平均耗时

QPS

deep 10M

1000万 96维

ECS 16核64G

QC(int8量化)

99

14.94ms

1608

某内部数据集

1亿 384维

ECS 64核512G

QC(int8量化)

99

158ms

150


五、总结

Havenask通过深度集成proxima向量库,以Havenask中的一种索引类型的方式支持向量检索。支持向量与文本的混合查询、带标签的向量查询、以及支持按过滤条件的向量查询。支持HNSW、QC、Linear等3种向量索引构建方式。支持超大规模的向量数据,支持水平扩展,具有低延迟、高吞吐的特点。


关注我们:

Havenask 开源官网:https://havenask.net/

Havenask-Github 开源项目地址:https://github.com/alibaba/havenask

阿里云 OpenSearch 官网:https://www.aliyun.com/product/opensearch

钉钉扫码加入 Havenask 开源官方技术交流群:

1715594790746.png

相关实践学习
基于OpenSearch搭建高质量商品搜索服务
本场景主要介绍开放搜索(OpenSearch)打造独有的电商行业垂直解决方案,模板内置电商查询分析、排序表达式及行业算法能力,沉浸式体验更高性能和效果的智能搜索服务,助力企业在线业务智能增长。
目录
相关文章
|
24天前
|
存储 人工智能 数据库
面向金融场景的大模型 RAG 检索增强解决方案
本方案为您介绍,如何使用人工智能平台 PAI 构建面向金融场景的大模型 RAG 检索增强解决方案。
|
1月前
|
人工智能 API
OmniSearch:阿里巴巴通义推出的多模态检索增强生成框架
本文介绍了阿里巴巴通义实验室推出的多模态检索增强生成框架 OmniSearch,该框架具备自适应规划能力,能够动态拆解复杂问题,根据检索结果和问题情境调整检索策略,从而提升检索效率和准确性。
217 5
OmniSearch:阿里巴巴通义推出的多模态检索增强生成框架
|
1月前
|
存储 边缘计算 自然语言处理
25 个值得关注的检索增强生成 (RAG) 模型和框架
大型语言模型(LLM)如GPT-4在自然语言处理(NLP)领域展现了卓越能力,但也存在知识截止、静态知识库和内存限制等局限。检索增强生成(RAG)通过集成检索机制,允许LLM动态访问和整合外部数据源,提高了生成响应的准确性、相关性和时效性。本文深入探讨了25种先进的RAG变体,每种变体都旨在优化检索和生成过程的特定方面,涵盖成本限制、实时交互和多模态数据集成等问题,展示了RAG在提升NLP能力方面的多功能性和潜力。
78 4
25 个值得关注的检索增强生成 (RAG) 模型和框架
|
1月前
|
机器学习/深度学习 人工智能 缓存
最佳实践!使用 GraphRAG + GLM-4 对《红楼梦》全文构建中文增强检索
特别介绍`graphrag-practice-chinese`项目,这是一个针对中文优化的GraphRAG应用实例,通过改进文本切分策略、使用中文提示词及选择更适合中文的模型等手段,显著提升了处理中文内容的能力。项目不仅包括详细的搭建指南,还提供了《红楼梦》全文的索引构建与查询测试示例,非常适合个人学习和研究。
1372 1
|
2月前
|
存储 人工智能 自然语言处理
高级 RAG 技术:提升生成式 AI 系统输出质量与性能鲁棒性【预检索、检索、检索后、生成优化等】
高级 RAG 技术:提升生成式 AI 系统输出质量与性能鲁棒性【预检索、检索、检索后、生成优化等】
高级 RAG 技术:提升生成式 AI 系统输出质量与性能鲁棒性【预检索、检索、检索后、生成优化等】
|
2月前
|
数据采集 自然语言处理 算法
实战RAG:构建基于检索增强的问答系统
【10月更文挑战第21天】在当今大数据时代,如何高效地从海量信息中获取所需知识,成为一个亟待解决的问题。检索增强的生成模型(Retrieval-Augmented Generation, RAG)应运而生,它结合了检索技术和生成模型的优点,旨在提高生成模型的回答质量和准确性。作为一名热衷于自然语言处理(NLP)领域的开发者,我有幸在多个项目中应用了RAG技术,并取得了不错的成效。本文将从我个人的实际经验出发,详细介绍如何使用RAG技术来构建一个问答系统,希望能够帮助那些已经对RAG有一定了解并希望将其应用于实际项目中的开发者们。
235 1
|
2月前
|
自然语言处理 索引
RAG入门:理解检索增强生成模型的基本原理
【10月更文挑战第21天】作为一名长期从事自然语言处理(NLP)研究的技术人员,我一直在关注各种新兴技术的发展趋势。其中,检索增强生成(Retrieval-Augmented Generation, RAG)模型引起了我的特别兴趣。RAG技术结合了检索系统和生成模型的优点,旨在解决传统生成模型在处理长文本理解和生成时所面临的挑战。本文将从个人的角度出发,介绍RAG的基本概念、工作原理及其相对于传统生成模型的优势,并探讨一些基本的实现方法。
88 1
|
2月前
|
自然语言处理 数据可视化 数据挖掘
闭源与开源嵌入模型比较以及提升语义搜索效果的技术探讨
本文探讨了自然语言处理中嵌入技术的应用,重点在于语义搜索及聚类方法。通过对比不同规模的开源与闭源模型,文章展示了如何利用聚类技术过滤无关结果,提高搜索精度。实验结果显示,较小模型如mxbai在某些任务上表现优异,提示我们在追求高性能的同时不应忽视计算效率与成本效益。最后,文章还介绍了重新排序技术,进一步优化检索结果的相关性。
104 6
闭源与开源嵌入模型比较以及提升语义搜索效果的技术探讨
|
2月前
|
机器学习/深度学习 自然语言处理 机器人
深度剖析模型微调与RAG技术的完美融合:从理论到实践,带你全面了解如何利用RAG提升特定领域任务性能并附带代码示例
【10月更文挑战第2天】随着深度学习的发展,预训练模型因通用表示能力和高效性备受关注。模型微调通过在已训练模型基础上进行再训练,使其适应特定任务或数据集,提升性能。RAG(Retrieval-Augmented Generation)结合检索与生成技术,在生成响应前检索相关信息,特别适用于需要背景知识的任务。本文通过构建医学问答机器人的示例,展示如何初始化RAG模型并利用实际数据集进行微调,从而提升生成答案的准确性和可信度。
186 4
|
1月前
|
机器学习/深度学习 自然语言处理 数据管理
GraphRAG核心组件解析:图结构与检索增强生成
【10月更文挑战第28天】在当今数据科学领域,自然语言处理(NLP)和图数据管理技术的发展日新月异。GraphRAG(Graph Retrieval-Augmented Generation)作为一种结合了图结构和检索增强生成的创新方法,已经在多个应用场景中展现出巨大的潜力。作为一名数据科学家,我对GraphRAG的核心组件进行了深入研究,并在此分享我的理解和实践经验。
75 0