PolarDB-PG AI最佳实践 1:基础能力实践

本文涉及的产品
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
云原生数据库 PolarDB MySQL 版,通用型 2核8GB 50GB
简介: Polar_AI 是 PolarDB 数据库的 AI 扩展,集成了先进的人工智能模型和算法,使数据库能够执行机器学习和自然语言处理任务。它支持 PostgreSQL 及 Oracle 兼容版本,通过标准 SQL 轻松调用 AI 模型,具备简单易用、灵活可定制、无缝数据融合、数据安全和高性能等优势。用户可以通过 SQL 快速实现文本转向量、情感分类等功能,并能自定义扩展 AI 模型。

简介

Polar_AI是PolarDB数据库的一个AI扩展,它集成了先进的AI模型和算法,架起了数据库与现代人工智能技术之间的桥梁,使得数据库内可执行机器学习和自然语言处理等任务。Polar_AI目前支持PolarDB PostgreSQL版及PolarDB PostgreSQL(兼容Oracle)版数据库。本文档帮助用户理解 Polar_AI 引擎的基本功能,包括如何在数据库中调用AI大模型执行文本转向量、情感分类等功能,以及如何通过SQL扩展自定义AI模型,以实现与更多AI模型服务的交互。

基本概念

  • NLP:自然语言处理(Natural Language Processing)是AI的一个领域,专注于使计算机能够理解和生成人类语言。这包括文本分类、情感分析、机器翻译、对话系统等技术。
  • Embedding: 中文可译为嵌入或嵌入式表示,是机器学习和自然语言处理领域中的一个重要概念。它是指将高维、稀疏的特征向量(如词典中的词语、图像像素点等)转换为低维、密集的连续向量空间中的向量表示的过程。

优势说明

通过标准SQL语言即可轻松实现数据库内部AI模型的调用及管理,这种方式具备以下几个显著优势:

  • 简单易用性:无需深厚的AI专业知识或复杂的编程技能,用户仅需掌握基础的SQL语法就能完成从模型训练到预测推理结果输出的全流程操作。这极大降低了使用门槛,使得更多非专业人员也能参与到AI应用实践中来。
  • 灵活可定制化:除了提供预设好的一系列常用AI算法外,还支持用户根据自身业务需求快速添加新的模型,只需编写几行简单的SQL语句就能实现功能扩展。这样一来,无论是文本分类、图像识别还是时序预测等不同类型的任务都可以在一个统一框架下得到高效处理。
  • 无缝数据融合:传统上,AI模型产生的输出往往需要经过额外步骤才能被整合进现有的信息系统之中;而在本方案里,所有AI计算的结果都能够直接保存于数据库内,并且可以很方便地与其他结构化或非结构化数据进行联合查询分析,从而为决策制定提供了更加全面准确的信息支持。
  • 数据安全保障:在整个计算过程中,原始数据始终存放在安全可靠的数据库环境中,避免了因频繁传输而导致的信息泄露风险。同时,借助于成熟的企业级特性如细粒度权限控制、访问审计跟踪以及加密技术等手段,进一步增强了系统的防护水平。
  • 卓越性能表现:由于所有的计算任务都在数据库内部执行,省去了数据移动所带来的额外开销,因此无论是在响应速度还是吞吐量方面都能达到非常优秀的水准。这对于那些对实时性要求较高的应用场景来说尤为重要。
  • 企业级服务支撑:全面继承云原生数据库PolarDB所拥有的各种高级特性,比如自动故障切换、在线扩容缩容、多租户隔离等等。这些都为企业构建稳定可靠的大规模数据处理平台奠定了坚实的基础。

快速入门

创建扩展

CREATE EXTENSION polar_ai;

内置模型介绍

  • 内置模型是指在创建Polar_AI扩展后,预先安装于数据库中的几种常用AI模型。用户无需关心模型部署及参数细节,可直接使用。
  • 可通过以下SQL命令查看内置模型:
select model_seq,model_id,model_name,model_url from polar_ai._ai_models;           
-----------+---------------------------------------------
1 | _dashscope/text_embedding/text_embedding_v2 | text-embedding-v2 | https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding 
2 | _dashscope/text_embedding/text_embedding_v3 | text-embedding-v3 | https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding 
3 | _dashscope/text-classfication/opennlu-v1    | opennlu-v1        | https://dashscope.aliyuncs.com/api/v1/services/nlp/nlu/understanding                    
(3 rows)
  • 当前内置模型主要集成了阿里云灵积模型服务中提供的自然语言处理模型,其功能解释如下:
  • _dashscope/text_embedding/text_embedding_v2:通用文本向量模型,支持将中文、英语、西班牙语、法语、葡萄牙语、印尼语、日语、韩语、德语、俄罗斯语转为向量,输出的向量维度为1536。
  • _dashscope/text_embedding/text_embedding_v3:通用文本向量模型,在text_embedding_v2的基础上增加了50+种语言,输出的向量维度默认为1024。
  • _dashscope/text-classfication/opennlu-v1:通用文本理解模型,适用于中文、英文零样本条件下进行文本理解任务,如信息抽取、文本分类等。
  • HuggingFace、OpenAI、Llama等更多内置模型开发中。

如何快速执行文本转向量

  • 本小节以调用内置模型'_dashscope/text_embedding/text_embedding_v2'为例,仅通过执行二次SQL命令就可完成文本转向量操作。
  • '_dashscope/text_embedding/text_embedding_v2'内置模型输出的向量固定为real[],如需输出更多类型,请参考如何实现批量Embedding及向量检索

步骤一:绑定Token

  • 在首次调用内置模型时,需要先获阿里云账号的API-KEY并绑定到模型,获取方法参考API-KEY的获取与配置
  • 绑定API-KEY到指定模型中,执行如下SQL命令:
select polar_ai.AI_SetModelToken('_dashscope/text_embedding/text_embedding_v2', 'YOUR_API_KEY');
---
t

步骤二:执行Embedding

  • 绑定API-KEY后,调用ai_text_embedding函数,即可完成文本转向量操作。
select polar_ai.ai_text_embedding('风急天高猿啸哀');
---
{0.0049301917,-0.012394876,0.041976027,-0.01943111,0.039707053,-0.030824259,0.036376007,-0.035169102,-0.00021252778,0.0053405385,0.039079465,-0.03019667,-0.0067224405,0.01711386,0.021989742,
...,
0.019008696,-0.03215185,-0.021820776,0.029520806,0.022677675,-0.0038922566,0.014941438,0.012986258,0.030003566,-0.008285377,0.0014573333,-0.017584551,-0.038089804,-0.0371967,-0.008629344}

如何快速实现文本情感分类

步骤一:绑定Token

  • 在首次调用内置模型时,需要先获阿里云账号的API-KEY并绑定到模型,获取方法参考API-KEY的获取与配置
  • 绑定API-KEY到指定模型中,执行如下SQL命令:
select polar_ai.AI_SetModelToken('_dashscope/text-classfication/opennlu-v1', 'YOUR_API_KEY');
---
t

步骤二:执行文本情感分类

select polar_ai.ai_text_classification('老师今天表扬我了');
---
积极;
select polar_ai.ai_text_classification('这家饭店的菜真难吃');
---
消极;

高级进阶

当内置模型无法满足需求时,用户可通过SQL在数据库中扩展AI模型,以实现与更多AI模型服务的交互。

如何实现自定义模型调用

本小节以调用灵积模型服务中的主题分类模型为例,自定义实现文本主题分类功能。

定义模型输入与输出函数

{
    "model": "opennlu-v1",
    "input":{
      "sentence":"国足近5年首次攻破日本队球门!",
      "task": "classification",
      "labels":"体育新闻,娱乐新闻"
    },
    "parameters": {
    }
}
  • json中model项、input/sentence与input/labels项为必填项,作为函数入参传入,input/task项为固定项,模型输入函数可定义为:
-- model,sentence,labels项为输入内容,task项固定
CREATE OR REPLACE FUNCTION my_text_classification_in(model text, content text)
      RETURNS jsonb
      LANGUAGE plpgsql
      AS $function$
      BEGIN
      RETURN ('{"model": "'|| model ||'","input":{"sentence":"'|| content ||'","task": "classification","labels":"体育新闻,时事新闻"},"parameters":{}}')::jsonb;
      END;
      $function$;
  • 定义模型输出函数
  • Curl调用输出内容示例:
{
      "output":{
          "text":"体育新闻",
      },
      "usage":{
          "output_tokens":2,
          "input_tokens":11,
          "total_tokens":13
      },
      "request_id":"d89c06fb-46a1-47b6-acb9-bfb17f814969"
}
  • 我们只需要取output/text项的部分内容即可,因为输出是一个极简单的词语,且不需要做任何处理,则模型输出函数无需定义。

创建文本主题分类模型

-- 将"your-api-key"替换成上文准备工作中获取到的API Key即可
-- 输入函数为ai_tongyi_custom_classification_in
SELECT polar_ai.ai_createmodel('my_text_classification_model', 'https://dashscope.aliyuncs.com/api/v1/services/nlp/nlu/understanding','Alibaba','OpenNLU开放域文本理解模型','opennlu-v1','{"author_type": "token", "token": "your-api-key"}', NULL,'my_text_classification_in'::regproc,NULL);       
---
(4,my_text_classification_model,polar_ai,opennlu-v1,t)

以SQL方式执行主题分类

-- 创建自定义模型调用函数
CREATE OR REPLACE FUNCTION my_text_classification_func(model_id text, content text)
    RETURNS text
    AS $$ select (((polar_ai.AI_CALLMODEL($1,$2)::json)->>'output')::jsonb->>'text')::text as result $$
    LANGUAGE 'sql' IMMUTABLE;
-- 执行主图分类  
select my_text_classification_func('my_text_classification_model', '国足近5年首次攻破日本队球门!');
----
体育新闻;
(1 row)

批量主题分类

  • 对于已经在数据库内的数据,可以批量执行主题分类,例如:
-- 创建表
create table my_text_classification_tbl(id integer, content text, class text);
-- 插入数据
insert into my_text_classification_tbl values(1,'国足近5年首次攻破日本队球门!'),(2,'中国智慧点亮全球治理的拉美时刻'),(3,'王楚钦复仇莫雷加德晋级四强');
-- 批量主题分类
update my_text_classification_tbl set class=my_text_classification_func('my_text_classification_model', content);
-- 查看分类结果
select * from my_text_classification_tbl;
id |            content               |  class   
----+-----------------------------------+-----------
  1 | 国足近5年首次攻破日本队球门!        | 体育新闻;
  2 | 中国智慧点亮全球治理的拉美时刻       | 时事新闻;
  3 | 王楚钦复仇莫雷加德晋级四强           | 体育新闻;
(3 rows)

如何实现批量Embedding及向量检索

本小节以调用灵积模型服务中的通用文本向量为例,实现批量文本转向量功能,并针对返回结果自定义输出内容。

定义模型输入、输出函数

  • 准备工作
  • 了解通义文本向量模型,包括请求header、输入文本格式和输出结果。
  • 获取阿里云账号的API-KEY,参考API-KEY的获取与配置
  • 定义模型输入函数
  • 通用文本向量模型text-embedding-v2 CURL调用命令中'--data'部分为:
{
      "model": "text-embedding-v2",
      "input": {
          "texts": [
          "风急天高猿啸哀"
          ]
      },
      "parameters": {
          "text_type": "query"
      }
}
  • 内容中的model项及input/texts项为必填项,作为函数入参,则模型输入函数可定义为:
CREATE OR REPLACE FUNCTION my_text_embedding_in(model text, texts text)
      RETURNS jsonb
      LANGUAGE plpgsql
      AS $function$
      BEGIN
      RETURN ('{"model": "'|| model ||'","input":{"texts":["'|| texts ||'"]},"parameters":{"text_type": "query"}}')::jsonb;
      END;
      $function$;
  • 定义模型输出函数
  • 通用文本向量模型text-embedding-v2 CURL调用输出内容为:
{
  "usage": {
    "total_tokens": 7
  },
  "output": {
    "embeddings": {
      "embedding": [0.004930191827757042, -0.008629344325205105, 0.041976027360927766],
      "text_index": 0
    }
  },
  "request_id": "317ba0d4-6c08-9c24-8725-eebd445def51"
}
  • 只需要取output/embeddings/embedding项的向量部分内容,并保留jsonb格式,则模型输出函数可定义为:
CREATE OR REPLACE FUNCTION my_text_embedding_out(model_id text, response_json jsonb)
    RETURNS jsonb
    AS $$ select ((((response_json->>'output')::jsonb->>'embeddings')::jsonb)->0->>'embedding')::jsonb as result $$
    LANGUAGE 'sql' IMMUTABLE;

创建自定义文本向量模型

  • 定义了模型输入输出函数后,即可通过ai_createmodel函数在数据库中创建模型。
-- 将"your-api-key"替换成上文准备工作中获取到的API Key即可
SELECT polar_ai.ai_createmodel('my_text_embedding_model', 'https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding','Alibaba','通用文本向量模型','text-embedding-v2','{"author_type": "token", "token": "your-api-key"}', NULL,'my_text_embedding_in'::regproc,'my_text_embedding_out'::regproc);        
---
(5,my_text_embedding_model,polar_ai,text-embedding-v2,t)

定义Embedding函数

CREATE OR REPLACE FUNCTION my_text_embedding_func(model_id text, texts text)
    RETURNS float8[]
    AS $$ select array(select json_array_elements_text(polar_ai.AI_CALLMODEL($1,$2)::json))::float8[] as result $$
    LANGUAGE 'sql' IMMUTABLE;

批量文本转向量

  • 对于已经在数据库内的数据,可以批量执行文本转向量并写入向量字段,例如:
-- 创建向量插件
create extension vector;
-- 创建向量表
create table my_text_embedding_tbl(id int, content text, vec vector(1536));
-- 插入数据
insert into my_text_embedding_tbl values(1,'PolarDB是阿里巴巴自研的新一代云原生数据库,在存储计算分离架构下,利用了软硬件结合的优势,为用户提供具备极致弹性、高性能、海量存储、安全可靠的数据库服务。'),(2,'postgresql是一种开源的关系型数据库管理系统,由PostgreSQL Global Development Group开发,由Perl编写。');
-- 批量生成并写入向量
update my_text_embedding_tbl set vec=my_text_embedding_func('my_text_embedding_model', content);

向量检索

  • 将文本生成向量后,可利用向量检索进行快速、准确地检索相似文本。
-- 创建向量索引
CREATE INDEX ON my_text_embedding_tbl USING hnsw (vec vector_l2_ops);
-- 根据内容进行检索
select content from my_text_embedding_tbl where vec <=> my_text_embedding_func('my_text_embedding_model', 'PolarDB数据库架构是怎么样的?')::vector(1536) < 0.5;
----
PolarDB是阿里巴巴自研的新一代云原生数据库,在存储计算分离架构下,利用了软硬件结合的优势,为用户提供具备极致弹性、高性能、海量存储、安全可靠的数据库服务。
(1 row)

至此,已完成Polar_AI功能的初步体验。如需进一步帮助,请联系PolarDB技术支持。

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍如何基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
相关文章
|
1月前
|
SQL 人工智能 关系型数据库
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
AI Agent的规划能力需权衡自主与人工。阿里云RDS AI助手实践表明:开放场景可由大模型自主规划,高频垂直场景则宜采用人工SOP驱动,结合案例库与混合架构,实现稳定、可解释的企业级应用,推动AI从“能聊”走向“能用”。
795 39
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
|
1月前
|
人工智能 IDE Java
AI Coding实践:CodeFuse + prompt 从系分到代码
在蚂蚁国际信贷业务系统建设过程中,技术团队始终面临双重考验:一方面需应对日益加速的需求迭代周期,满足严苛的代码质量规范与金融安全合规要求;另一方面,跨地域研发团队的协同效率与代码标准统一性,在传统开发模式下逐渐显现瓶颈。为突破效率制约、提升交付质量,我们积极探索人工智能辅助代码生成技术(AI Coding)的应用实践。本文基于蚂蚁国际信贷技术团队近期的实际项目经验,梳理AI辅助开发在金融级系统快速迭代场景中的实施要点并分享阶段性实践心得。
350 25
AI Coding实践:CodeFuse + prompt 从系分到代码
|
1月前
|
人工智能 自然语言处理 测试技术
从人工到AI驱动:天猫测试全流程自动化变革实践
天猫技术质量团队探索AI在测试全流程的落地应用,覆盖需求解析、用例生成、数据构造、执行验证等核心环节。通过AI+自然语言驱动,实现测试自动化、可溯化与可管理化,在用例生成、数据构造和执行校验中显著提效,推动测试体系从人工迈向AI全流程自动化,提升效率40%以上,用例覆盖超70%,并构建行业级知识资产沉淀平台。
从人工到AI驱动:天猫测试全流程自动化变革实践
|
1月前
|
消息中间件 人工智能 Kafka
AI 时代的数据通道:云消息队列 Kafka 的演进与实践
云消息队列 Kafka 版通过在架构创新、性能优化与生态融合等方面的突破性进展,为企业构建实时数据驱动的应用提供了坚实支撑,持续赋能客户业务创新。
325 26
|
1月前
|
人工智能 自然语言处理 前端开发
最佳实践2:用通义灵码以自然语言交互实现 AI 高考志愿填报系统
本项目旨在通过自然语言交互,结合通义千问AI模型,构建一个智能高考志愿填报系统。利用Vue3与Python,实现信息采集、AI推荐、专业详情展示及数据存储功能,支持响应式设计与Supabase数据库集成,助力考生精准择校选专业。(239字)
204 12
|
1月前
|
数据采集 存储 人工智能
从0到1:天猫AI测试用例生成的实践与突破
本文系统阐述了天猫技术团队在AI赋能测试领域的深度实践与探索,讲述了智能测试用例生成的落地路径。
从0到1:天猫AI测试用例生成的实践与突破
|
1月前
|
人工智能 新制造
TsingtaoAI受邀参加宁波AI海曙科创训练营并分享技术落地实践
10月12日至15日,由宁波市海曙区组织部主办的AI海曙科创训练营在宁波成功举办。作为受邀企业代表,TsingtaoAI团队深入参与了多项活动,与政府领导、行业专家及科创企业代表围绕AI技术在制造业、成果转化等领域的实际应用展开交流,用真实案例诠释了“技术扎根产业”的价值逻辑。
81 2
|
1月前
|
人工智能 搜索推荐 算法
用AI提示词搞定基金定投:技术人的理财工具实践
本文将AI提示词工程应用于基金定投,为技术人打造一套系统化、可执行的理财方案。通过结构化指令,AI可生成个性化定投策略,覆盖目标设定、资产配置、风险控制与动态调整,帮助用户降低决策门槛,规避情绪干扰,实现科学理财。
428 13
|
1月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
1月前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段四:学术分析 AI 项目 RAG 落地指南:基于 Spring AI 的本地与阿里云知识库实践
本文介绍RAG(检索增强生成)技术,结合Spring AI与本地及云知识库实现学术分析AI应用,利用阿里云Qwen-Plus模型提升回答准确性与可信度。
866 90
AI 超级智能体全栈项目阶段四:学术分析 AI 项目 RAG 落地指南:基于 Spring AI 的本地与阿里云知识库实践

热门文章

最新文章

相关产品

  • 云原生数据库 PolarDB
  • 下一篇
    oss云网关配置