使用 PostgreSQL pgvector 的 AI 应用程序中的多模态搜索

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
性能测试 PTS,5000VUM额度
简介: 大型语言模型(LLM)的发展已拓展至多模态领域,不仅能处理文本,还能解析图像。本文介绍如何构建一个多模态搜索应用,用户可通过上传图片或输入文本来搜索印度菜谱。该应用支持多种LLM服务,如OpenAI及Ollama本地部署模型,并运用pgvector扩展在PostgreSQL中高效存储和检索向量嵌入。我们还展示了如何生成菜谱描述的嵌入并向数据库写入这些嵌入,以及如何通过API接口结合文本和图像查询来获取最相关的菜谱结果。此外,讨论了使用分布式SQL数据库如YugabyteDB增强应用的可扩展性和健壮性。

大型语言模型 (LLM) 已经超越了生成对文本提示的文本响应的重大发展。这些模型现在经过训练,具有高级功能,例如解释图像和从视觉输入提供详细描述。这为用户提供了更大的搜索容量。

在本文中,演示如何构建具有多模式搜索功能的应用程序。此应用程序的用户可以上传图像或提供文本输入,使他们能够搜索印度食谱数据库。该应用程序旨在与多个 LLM 提供商合作,允许用户在 OpenAI 或使用 Ollama 本地运行的模型之间进行选择。然后使用 pgvector 在 PostgreSQL 中存储和查询文本嵌入。

在深入研究代码之前,让我们概述一下每个组件在构建多模式搜索应用程序时所扮演的角色。

构建多模式搜索应用程序的组件

多模态大型语言模型 (LLM):在大型数据集上训练的模型,能够处理多种类型的数据,例如文本、图像和语音
嵌入模型:一种将输入转换为固定数量维度的数值向量的模型,用于相似性搜索;例如,OpenAI 的 text-embedding-3-small 模型生成一个 1536 维向量
PostgreSQL:适用于各种应用程序的通用关系开源数据库,配备了用于存储和查询 AI 应用程序中的向量嵌入的扩展
pgvector:用于处理向量相似性搜索的 PostgreSQL 扩展
现在我们已经了解了应用程序架构和基础组件,让我们把这些部分放在一起!

生成和存储嵌入
此项目提供实用函数,用于从您选择的提供商处生成嵌入。让我们逐步了解生成和存储文本嵌入所需的步骤。

保存原始数据集的cuisines.csv文件被读取并存储在 Pandas DataFrame 中,以便进行操作。

每个配方的描述都传递给函数,以在 DataFrame 中填充新的列嵌入。然后,此数据将写入新的 output.csv 文件,其中包含用于相似性搜索的嵌入

1
import sys
2
import os
3
import pandas as pd
45
# Add the project root to sys.path
6
sys.path.append(os.path.abspath(os.path.join(os.path.dirname(__file__), '..')))
7
from backend.llm_interface import generate_embedding
89
# Load the CSV file
10
csv_path = './database/cuisines.csv'
11
df = pd.read_csv(csv_path)
1213
# Generate embeddings for each description in the CSV
14
df['embeddings'] = df['description'].apply(generate_embedding, args=(True,))
1516
# Save the DataFrame with embeddings to a new CSV file
17
output_csv_path = './database/output.csv'
18
df.to_csv(output_csv_path, index=False)
1920
print(f"Embeddings generated and saved to {output_csv_path}")


使用 pgvector,这些嵌入可以很容易地存储在 PostgreSQL 的 type 列中。embeddingsvector

SQL格式
1
CREATE EXTENSION IF NOT EXISTS vector;
23
CREATE table recipes (
4
   id SERIAL PRIMARY KEY,
5
   name text,
6
   description text,
7
   ...
8
   embeddings vector (768)
9
);
10

可以使用命令或使用 Pandas DataFrame 提供的函数将生成的 output.csv 文件复制到数据库中。COPYto_sql

1
# Copy to recipes table running in Docker
2
docker exec -it postgres bin/psql -U postgres -c "\COPY recipes(name,description,...,embeddings) from '/home/database/output.csv' DELIMITER ',' CSV HEADER;"
1
# Write the DataFrame to the recipes table table
2
engine = create_engine('postgresql+psycopg2://username:password@hostname/postgres')
34
df.to_sql('recipes', engine, if_exists='replace', index=False)

借助存储配方描述的向量嵌入的 PostgreSQL 实例,我们已准备好运行应用程序并执行查询。

多模态搜索应用程序
让我们将应用程序连接到数据库,开始对配方描述嵌入执行查询。

搜索端点通过多部分表单接受文本和图像。

1
# server.py
2
from llm_interface import describe_image, generate_embedding
34
...
56
@app.route('/api/search', methods=['POST'])
7
def search():
8
   image_description = None
9
   query = None
10
   # multipart form data payload
11
   if 'image' in request.files:
12
       image_file = request.files['image']
13
       image_description = describe_image(image_file)
1415
   data = request.form.get('data')
16
   if data and 'query' in data:
17
       try:
18
           data = json.loads(data)
19
           query = data['query']
20
       except ValueError:
21
           return jsonify({
   'error': 'Invalid JSON data'}), 400
2223
   if not image_description and not query:
24
       return jsonify({
   'error': 'No search query or image provided'}), 400
2526
   embedding_query = (query or '') + " " + (image_description or '')
2728
   embedding = generate_embedding(embedding_query)
2930
   try:
31
       conn = get_db_connection()
32
       cursor = conn.cursor()
33
       cursor.execute("SELECT id, name, description, instructions, image_url FROM recipes ORDER BY embeddings <=> %s::vector  LIMIT 10", (embedding,))
34
       results = cursor.fetchall()
35
       cursor.close()
36
       conn.close()
3738
       return jsonify({
   'results': results, 'image_description': image_description or None})
3940
   except Exception as e:
41
       return jsonify({
   'error': str(e)}), 500

虽然此 API 非常简单,但有两个有趣的辅助函数:和 。让我们更详细地了解一下它们是如何工作的。describe_imagegenerate_embedding


# llm_interface.py

# Function to generate a description from an image file

def describe_image(file_path):

   image_b64 = b64_encode_image(file_path)

   custom_prompt = """You are an expert in identifying Indian cuisines.

   Describe the most likely ingredients in the food pictured, taking into account the colors identified.

   Only provide ingredients and adjectives to describe the food, including a guess as to the name of the dish.

   Output this as a single paragraph of 2-3 sentences."""

   if(LLM_ECOSYSTEM == 'ollama'):

       response = ollama.generate(model=LLM_MULTIMODAL_MODEL, prompt=custom_prompt, images=[image_b64])

       return response['response']

   elif(LLM_ECOSYSTEM == 'openai'):    

       response = client.chat.completions.create(messages=[

           {
   "role": "system", "content": custom_prompt},

           {
   "role": "user", "content": [

           {
   

               "type": "image_url",

               "image_url": {
   "url": f"data:image/jpeg;base64,{image_b64}"},

           }]}

       ], model=LLM_MULTIMODAL_MODEL)

       return response.choices[0].message.content

  else:

       return "No Model Provided"

该函数采用图像文件路径,并将 base64 编码发送到用户首选的 LLM。describe_image

为简单起见,该应用程序目前支持在 Ollama 中本地运行的模型,或通过 OpenAI 提供的模型。这个 base64 图像表示伴随着一个自定义提示,告诉 LLM 充当印度菜专家,以便准确描述上传的图像。在使用 LLM 时,清晰的提示构建对于产生预期的结果至关重要。

从函数返回图像的简短描述,然后可以将该描述传递给函数以生成要存储在数据库中的向量表示。generate_embedding

# llm_interface.py

# Function to generate embeddings for a given text

def generate_embedding(text):

   if LLM_ECOSYSTEM == 'ollama':

       embedding = ollama.embeddings(model=LLM_EMBEDDING_MODEL, prompt=text)

       return embedding['embedding']

   elif LLM_ECOSYSTEM == 'openai':

       response = client.embeddings.create(model=LLM_EMBEDDING_MODEL, input=text)

       embedding = response.data[0].embedding

       return embedding

   else:

       return "No Model Provided"

该函数依赖于 AI 生态系统中一类不同的模型,这些模型从文本生成向量嵌入。这些模型也可以通过 Ollama 和 OpenAI 轻松获得,分别返回 768 和 1536 维度。generate_embedding

通过生成从 LLM 返回的每个图像描述的嵌入(以及选择性地通过表单输入提供其他文本),API 端点可以使用 pgvector 中的余弦距离进行查询,以提供准确的结果。


cursor.execute("SELECT id, name, description, instructions, image_url FROM recipes ORDER BY embeddings <=> %s::vector  LIMIT 10", (embedding,))

results = cursor.fetchall()

通过连接 UI 并通过图像和简短的文本描述进行搜索,应用程序可以利用 pgvector 对数据集执行相似性搜索。

分布式 SQL 在 AI 应用中的应用案例
让我们来探讨一下如何利用分布式 SQL 来使我们的应用程序更具可扩展性和弹性。

以下是使用 pgvector 的 AI 应用程序受益于分布式 PostgreSQL 数据库的一些关键原因:

嵌入会消耗大量的存储和内存。具有 1536 个维度的 OpenAI 模型占用 ~57GB 的空间,用于 1000 万条记录。水平缩放提供了存储向量所需的空间。
向量相似性搜索是非常耗费计算量的。通过横向扩展到多个节点,应用程序可以访问未绑定的 CPU 和 GPU 限制。
避免服务中断。该数据库对节点、数据中心和区域性中断具有弹性,因此 AI 应用程序永远不会因数据库层而停机。
YugabyteDB 是一个基于 PostgreSQL 构建的分布式 SQL 数据库,与 Postgres 在功能和运行时兼容。它允许您重用为 Postgres 标准版本创建的库、驱动程序、工具和框架。YugabyteDB 具有 pgvector 兼容性,并提供原生 PostgreSQL 中的所有功能。这使其成为那些希望提升其 AI 应用程序水平的人的理想选择。

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
目录
相关文章
|
15天前
|
人工智能 文字识别 运维
AI多模态的5大核心关键技术,让高端制造实现智能化管理
结合大模型应用场景,通过AI技术解析高端制造业的复杂设备与文档数据,自动化地将大型零件、机械图纸、操作手册等文档结构化。核心技术包括版面识别、表格抽取、要素抽取和文档抽取,实现信息的系统化管理和高效查询,大幅提升设备维护和生产管理的效率。
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
医疗行业的语音识别技术解析:AI多模态能力平台的应用与架构
AI多模态能力平台通过语音识别技术,实现实时转录医患对话,自动生成结构化数据,提高医疗效率。平台具备强大的环境降噪、语音分离及自然语言处理能力,支持与医院系统无缝集成,广泛应用于门诊记录、多学科会诊和急诊场景,显著提升工作效率和数据准确性。
|
2月前
|
人工智能 供应链 搜索推荐
生成式 AI 与向量搜索如何扩大零售运营:巨大潜力尚待挖掘
唯有打破领域壁垒,让数据在整个系统中流转 方可实现 AI 驱动的自动化增长
|
2月前
|
人工智能 搜索推荐 API
用于企业AI搜索的Bocha Web Search API,给LLM提供联网搜索能力和长文本上下文
博查Web Search API是由博查提供的企业级互联网网页搜索API接口,允许开发者通过编程访问博查搜索引擎的搜索结果和相关信息,实现在应用程序或网站中集成搜索功能。该API支持近亿级网页内容搜索,适用于各类AI应用、RAG应用和AI Agent智能体的开发,解决数据安全、价格高昂和内容合规等问题。通过注册博查开发者账户、获取API KEY并调用API,开发者可以轻松集成搜索功能。
|
2月前
|
人工智能
云端问道12期-构建基于Elasticsearch的企业级AI搜索应用陪跑班获奖名单公布啦!
云端问道12期-构建基于Elasticsearch的企业级AI搜索应用陪跑班获奖名单公布啦!
176 2
|
3月前
|
人工智能 JSON 数据格式
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
【9月更文挑战第6天】RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
|
3月前
|
人工智能
防AI换脸视频诈骗,中电金信联合复旦提出多模态鉴伪法,还入选顶会ACM MM
【9月更文挑战第26天】中电金信与复旦大学合作,提出一种基于身份信息增强的多媒体伪造检测方法,并入选ACM MM国际会议。该方法利用身份信息作为检测线索,构建了含54位名人324个视频的多模态伪造数据集IDForge,设计了参考辅助的多模态伪造检测网络R-MFDN,显著提升了检测性能,准确率达到92.90%。尽管如此,该方法仍存在一定局限性,如对非英语国家数据及无明确身份信息的视频检测效果可能受限。
69 4
|
4月前
|
人工智能 自然语言处理 搜索推荐
阿里云Elasticsearch AI搜索实践
本文介绍了阿里云 Elasticsearch 在AI 搜索方面的技术实践与探索。
19170 21
|
3月前
|
人工智能 测试技术
语言图像模型大一统!Meta将Transformer和Diffusion融合,多模态AI王者登场
【9月更文挑战第20天】Meta研究人员提出了一种名为Transfusion的创新方法,通过融合Transformer和Diffusion模型,实现了能同时处理文本和图像数据的多模态模型。此模型结合了语言模型的预测能力和Diffusion模型的生成能力,能够在单一架构中处理混合模态数据,有效学习文本与图像间的复杂关系,提升跨模态理解和生成效果。经过大规模预训练,Transfusion模型在多种基准测试中表现出色,尤其在图像压缩和模态特定编码方面具有优势。然而,其训练所需的大量计算资源和数据、以及潜在的伦理和隐私问题仍需关注。
73 7
|
4月前
|
人工智能 文字识别 算法
打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!
X-AnyLabeling是一款强大的辅助标注工具,集成了AI推理引擎和丰富功能,为图像数据工程师提供一站式解决方案。它支持图像和视频文件的自动标注,提供了包括矩形框、多边形在内的七种标注样式,适应多样化的训练场景需求。X-AnyLabeling内置了多种SOTA级AI模型,如YOLO、SAM系列等,并支持GPU加速和多种数据集格式的导入导出,确保高效的数据处理。此外,它还具备良好的跨平台兼容性,可在多种操作系统上运行,并提供详尽的帮助文档和社区支持,帮助用户轻松上手并解决使用过程中遇到的问题。
321 2
打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!