PolarDB-PG AI最佳实践 1:基础能力实践

本文涉及的产品
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
数据管理 DMS,安全协同 3个实例 3个月
推荐场景:
学生管理系统数据库
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
简介: Polar_AI 是 PolarDB 数据库的 AI 扩展,集成了先进的人工智能模型和算法,使数据库能够执行机器学习和自然语言处理任务。它支持 PostgreSQL 及 Oracle 兼容版本,通过标准 SQL 轻松调用 AI 模型,具备简单易用、灵活可定制、无缝数据融合、数据安全和高性能等优势。用户可以通过 SQL 快速实现文本转向量、情感分类等功能,并能自定义扩展 AI 模型。

简介

Polar_AI是PolarDB数据库的一个AI扩展,它集成了先进的AI模型和算法,架起了数据库与现代人工智能技术之间的桥梁,使得数据库内可执行机器学习和自然语言处理等任务。Polar_AI目前支持PolarDB PostgreSQL版及PolarDB PostgreSQL(兼容Oracle)版数据库。 本文档帮助用户理解 Polar_AI 引擎的基本功能,包括如何在数据库中调用AI大模型执行文本转向量、情感分类等功能,以及如何通过SQL扩展自定义AI模型,以实现与更多AI模型服务的交互。

基本概念

  • NLP:自然语言处理(Natural Language Processing)是AI的一个领域,专注于使计算机能够理解和生成人类语言。这包括文本分类、情感分析、机器翻译、对话系统等技术。
  • Embedding: 中文可译为嵌入或嵌入式表示,是机器学习和自然语言处理领域中的一个重要概念。它是指将高维、稀疏的特征向量(如词典中的词语、图像像素点等)转换为低维、密集的连续向量空间中的向量表示的过程。

优势说明

通过标准SQL语言即可轻松实现数据库内部AI模型的调用及管理,这种方式具备以下几个显著优势:

  • 简单易用性:无需深厚的AI专业知识或复杂的编程技能,用户仅需掌握基础的SQL语法就能完成从模型训练到预测推理结果输出的全流程操作。这极大降低了使用门槛,使得更多非专业人员也能参与到AI应用实践中来。
  • 灵活可定制化:除了提供预设好的一系列常用AI算法外,还支持用户根据自身业务需求快速添加新的模型,只需编写几行简单的SQL语句就能实现功能扩展。这样一来,无论是文本分类、图像识别还是时序预测等不同类型的任务都可以在一个统一框架下得到高效处理。
  • 无缝数据融合:传统上,AI模型产生的输出往往需要经过额外步骤才能被整合进现有的信息系统之中;而在本方案里,所有AI计算的结果都能够直接保存于数据库内,并且可以很方便地与其他结构化或非结构化数据进行联合查询分析,从而为决策制定提供了更加全面准确的信息支持。
  • 数据安全保障:在整个计算过程中,原始数据始终存放在安全可靠的数据库环境中,避免了因频繁传输而导致的信息泄露风险。同时,借助于成熟的企业级特性如细粒度权限控制、访问审计跟踪以及加密技术等手段,进一步增强了系统的防护水平。
  • 卓越性能表现:由于所有的计算任务都在数据库内部执行,省去了数据移动所带来的额外开销,因此无论是在响应速度还是吞吐量方面都能达到非常优秀的水准。这对于那些对实时性要求较高的应用场景来说尤为重要。
  • 企业级服务支撑:全面继承云原生数据库PolarDB所拥有的各种高级特性,比如自动故障切换、在线扩容缩容、多租户隔离等等。这些都为企业构建稳定可靠的大规模数据处理平台奠定了坚实的基础。

快速入门

创建扩展

=== "PolarDB-PG"

```sql
CREATE EXTENSION polar_ai;
```

内置模型介绍

  • 内置模型是指在创建Polar_AI扩展后,预先安装于数据库中的几种常用AI模型。用户无需关心模型部署及参数细节,可直接使用。
  • 可通过以下SQL命令查看内置模型:
```sql
select model_seq,model_id,model_name,model_url from polar_ai._ai_models;           
-----------+---------------------------------------------
1 | _dashscope/text_embedding/text_embedding_v2 | text-embedding-v2 | https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding 
2 | _dashscope/text_embedding/text_embedding_v3 | text-embedding-v3 | https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding 
3 | _dashscope/text-classfication/opennlu-v1    | opennlu-v1        | https://dashscope.aliyuncs.com/api/v1/services/nlp/nlu/understanding                    
(3 rows)
```
  • 当前内置模型主要集成了阿里云灵积模型服务中提供的自然语言处理模型,其功能解释如下:
  • _dashscope/text_embedding/text_embedding_v2:通用文本向量模型,支持将中文、英语、西班牙语、法语、葡萄牙语、印尼语、日语、韩语、德语、俄罗斯语转为向量,输出的向量维度为1536。
  • _dashscope/text_embedding/text_embedding_v3:通用文本向量模型,在text_embedding_v2的基础上增加了50+种语言,输出的向量维度默认为1024。
  • _dashscope/text-classfication/opennlu-v1:通用文本理解模型,适用于中文、英文零样本条件下进行文本理解任务,如信息抽取、文本分类等。
  • HuggingFace、OpenAI、Llama等更多内置模型开发中。

如何快速执行文本转向量

  • 本小节以调用内置模型'_dashscope/text_embedding/text_embedding_v2'为例,仅通过执行二次SQL命令就可完成文本转向量操作。
  • '_dashscope/text_embedding/text_embedding_v2'内置模型输出的向量固定为real[],如需输出更多类型,请参考如何实现批量Embedding及向量检索

步骤一:绑定Token

  • 在首次调用内置模型时,需要先获阿里云账号的API-KEY并绑定到模型,获取方法参考API-KEY的获取与配置
  • 绑定API-KEY到指定模型中,执行如下SQL命令:
```sql
select polar_ai.AI_SetModelToken('_dashscope/text_embedding/text_embedding_v2', 'YOUR_API_KEY');
---
t
```

步骤二:执行Embedding

  • 绑定API-KEY后,调用ai_text_embedding函数,即可完成文本转向量操作。
```sql
select polar_ai.ai_text_embedding('风急天高猿啸哀');
---
{0.0049301917,-0.012394876,0.041976027,-0.01943111,0.039707053,-0.030824259,0.036376007,-0.035169102,-0.00021252778,0.0053405385,0.039079465,-0.03019667,-0.0067224405,0.01711386,0.021989742,
...,
0.019008696,-0.03215185,-0.021820776,0.029520806,0.022677675,-0.0038922566,0.014941438,0.012986258,0.030003566,-0.008285377,0.0014573333,-0.017584551,-0.038089804,-0.0371967,-0.008629344}
```

如何快速实现文本情感分类

步骤一:绑定Token

  • 在首次调用内置模型时,需要先获阿里云账号的API-KEY并绑定到模型,获取方法参考API-KEY的获取与配置
  • 绑定API-KEY到指定模型中,执行如下SQL命令:
```sql
select polar_ai.AI_SetModelToken('_dashscope/text-classfication/opennlu-v1', 'YOUR_API_KEY');
---
t
```

步骤二:执行文本情感分类

```sql
select polar_ai.ai_text_classification('老师今天表扬我了');
---
积极;
select polar_ai.ai_text_classification('这家饭店的菜真难吃');
---
消极;
```

高级进阶

当内置模型无法满足需求时,用户可通过SQL在数据库中扩展AI模型,以实现与更多AI模型服务的交互。

如何实现自定义模型调用

本小节以调用灵积模型服务中的主题分类模型为例,自定义实现文本主题分类功能。

定义模型输入与输出函数

  • 准备工作
  • 定义模型输入函数
  • 模型opennlu-v1 CURL调用命令中'--data'部分为:
```json
{
  "model": "opennlu-v1",
  "input":{
    "sentence":"国足近5年首次攻破日本队球门!",
    "task": "classification",
    "labels":"体育新闻,娱乐新闻"
  },
  "parameters": {
  }
}
```
  • json中model项、input/sentence与input/labels项为必填项,作为函数入参传入,input/task项为固定项,模型输入函数可定义为:
```sql
-- model,sentence,labels项为输入内容,task项固定
CREATE OR REPLACE FUNCTION my_text_classification_in(model text, content text)
    RETURNS jsonb
    LANGUAGE plpgsql
    AS $function$
    BEGIN
    RETURN ('{"model": "'|| model ||'","input":{"sentence":"'|| content ||'","task": "classification","labels":"体育新闻,时事新闻"},"parameters":{}}')::jsonb;
    END;
    $function$;
```
  • 定义模型输出函数
  • Curl调用输出内容示例:
```json
{
    "output":{
        "text":"体育新闻",
    },
    "usage":{
        "output_tokens":2,
        "input_tokens":11,
        "total_tokens":13
    },
    "request_id":"d89c06fb-46a1-47b6-acb9-bfb17f814969"
}
```
  • 我们只需要取output/text项的部分内容即可,因为输出是一个极简单的词语,且不需要做任何处理,则模型输出函数无需定义。

创建文本主题分类模型

```sql
-- 将"your-api-key"替换成上文准备工作中获取到的API Key即可
-- 输入函数为ai_tongyi_custom_classification_in
SELECT polar_ai.ai_createmodel('my_text_classification_model', 'https://dashscope.aliyuncs.com/api/v1/services/nlp/nlu/understanding','Alibaba','OpenNLU开放域文本理解模型','opennlu-v1','{"author_type": "token", "token": "your-api-key"}', NULL,'my_text_classification_in'::regproc,NULL);       
---
(4,my_text_classification_model,polar_ai,opennlu-v1,t)
```

以SQL方式执行主题分类

```sql
-- 创建自定义模型调用函数
CREATE OR REPLACE FUNCTION my_text_classification_func(model_id text, content text)
    RETURNS text
    AS $$ select (((polar_ai.AI_CALLMODEL($1,$2)::json)->>'output')::jsonb->>'text')::text as result $$
    LANGUAGE 'sql' IMMUTABLE;
-- 执行主图分类  
select my_text_classification_func('my_text_classification_model', '国足近5年首次攻破日本队球门!');
----
体育新闻;
(1 row)
```

批量主题分类

  • 对于已经在数据库内的数据,可以批量执行主题分类,例如:
```sql
-- 创建表
create table my_text_classification_tbl(id integer, content text, class text);
-- 插入数据
insert into my_text_classification_tbl values(1,'国足近5年首次攻破日本队球门!'),(2,'中国智慧点亮全球治理的拉美时刻'),(3,'王楚钦晋级2024年WTT福冈总决赛男单四强');
-- 批量主题分类
update my_text_classification_tbl set class=my_text_classification_func('my_text_classification_model', content);
-- 查看分类结果
select * from my_text_classification_tbl;
id |            content               |  class   
----+-----------------------------------+-----------
  1 | 国足近5年首次攻破日本队球门!        | 体育新闻;
  2 | 中国智慧点亮全球治理的拉美时刻       | 时事新闻;
  3 | 王楚钦晋级2024年WTT福冈总决赛男单四强           | 体育新闻;
(3 rows)
```

如何实现批量Embedding及向量检索

本小节以调用灵积模型服务中的通用文本向量为例,实现批量文本转向量功能,并针对返回结果自定义输出内容。

定义模型输入、输出函数

  • 准备工作
  • 定义模型输入函数
  • 通用文本向量模型text-embedding-v2 CURL调用命令中'--data'部分为:
```json
{
    "model": "text-embedding-v2",
    "input": {
        "texts": [
        "风急天高猿啸哀"
        ]
    },
    "parameters": {
        "text_type": "query"
    }
}
```
  • 内容中的model项及input/texts项为必填项,作为函数入参,则模型输入函数可定义为:
```sql
CREATE OR REPLACE FUNCTION my_text_embedding_in(model text, texts text)
    RETURNS jsonb
    LANGUAGE plpgsql
    AS $function$
    BEGIN
    RETURN ('{"model": "'|| model ||'","input":{"texts":["'|| texts ||'"]},"parameters":{"text_type": "query"}}')::jsonb;
    END;
    $function$;
```
  • 定义模型输出函数
  • 通用文本向量模型text-embedding-v2 CURL调用输出内容为:
```json
{
  "usage": {
    "total_tokens": 7
  },
  "output": {
    "embeddings": {
      "embedding": [0.004930191827757042, -0.008629344325205105, 0.041976027360927766],
      "text_index": 0
    }
  },
  "request_id": "317ba0d4-6c08-9c24-8725-eebd445def51"
}
```
  • 只需要取output/embeddings/embedding项的向量部分内容,并保留jsonb格式,则模型输出函数可定义为:
```sql
CREATE OR REPLACE FUNCTION my_text_embedding_out(model_id text, response_json jsonb)
    RETURNS jsonb
    AS $$ select ((((response_json->>'output')::jsonb->>'embeddings')::jsonb)->0->>'embedding')::jsonb as result $$
    LANGUAGE 'sql' IMMUTABLE;
```

创建自定义文本向量模型

  • 定义了模型输入输出函数后,即可通过ai_createmodel函数在数据库中创建模型。
```sql
-- 将"your-api-key"替换成上文准备工作中获取到的API Key即可
SELECT polar_ai.ai_createmodel('my_text_embedding_model', 'https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding','Alibaba','通用文本向量模型','text-embedding-v2','{"author_type": "token", "token": "your-api-key"}', NULL,'my_text_embedding_in'::regproc,'my_text_embedding_out'::regproc);        
---
(5,my_text_embedding_model,polar_ai,text-embedding-v2,t)
```

定义Embedding函数

```sql
CREATE OR REPLACE FUNCTION my_text_embedding_func(model_id text, texts text)
    RETURNS float8[]
    AS $$ select array(select json_array_elements_text(polar_ai.AI_CALLMODEL($1,$2)::json))::float8[] as result $$
    LANGUAGE 'sql' IMMUTABLE;
```

批量文本转向量

  • 对于已经在数据库内的数据,可以批量执行文本转向量并写入向量字段,例如:
```sql
-- 创建向量插件
create extension vector;
-- 创建向量表
create table my_text_embedding_tbl(id int, content text, vec vector(1536));
-- 插入数据
insert into my_text_embedding_tbl values(1,'PolarDB是阿里巴巴自研的新一代云原生数据库,在存储计算分离架构下,利用了软硬件结合的优势,为用户提供具备极致弹性、高性能、海量存储、安全可靠的数据库服务。'),(2,'postgresql是一种开源的关系型数据库管理系统,由PostgreSQL Global Development Group开发,由Perl编写。');
-- 批量生成并写入向量
update my_text_embedding_tbl set vec=my_text_embedding_func('my_text_embedding_model', content);
```

向量检索

  • 将文本生成向量后,可利用向量检索进行快速、准确地检索相似文本。
-- 创建向量索引
CREATE INDEX ON my_text_embedding_tbl USING hnsw (vec vector_l2_ops);
-- 根据内容进行检索
select content from my_text_embedding_tbl where vec <=> my_text_embedding_func('my_text_embedding_model', 'PolarDB数据库架构是怎么样的?')::vector(1536) < 0.5;
----
PolarDB是阿里巴巴自研的新一代云原生数据库,在存储计算分离架构下,利用了软硬件结合的优势,为用户提供具备极致弹性、高性能、海量存储、安全可靠的数据库服务。
(1 row)

总结

Polar_AI架起了数据库与现代人工智能技术之间的桥梁,使得数据库内可执行机器学习和自然语言处理等任务。Polar_AI 提供了多种内置模型,使得用户操作更加简便;同时用户只需简单SQL即可实现自定义模型调用,具备很强的灵活性。

相关文章
|
7天前
|
人工智能 自动驾驶 大数据
预告 | 阿里云邀您参加2024中国生成式AI大会上海站,马上报名
大会以“智能跃进 创造无限”为主题,设置主会场峰会、分会场研讨会及展览区,聚焦大模型、AI Infra等热点议题。阿里云智算集群产品解决方案负责人丛培岩将出席并发表《高性能智算集群设计思考与实践》主题演讲。观众报名现已开放。
|
23天前
|
存储 人工智能 弹性计算
阿里云弹性计算_加速计算专场精华概览 | 2024云栖大会回顾
2024年9月19-21日,2024云栖大会在杭州云栖小镇举行,阿里云智能集团资深技术专家、异构计算产品技术负责人王超等多位产品、技术专家,共同带来了题为《AI Infra的前沿技术与应用实践》的专场session。本次专场重点介绍了阿里云AI Infra 产品架构与技术能力,及用户如何使用阿里云灵骏产品进行AI大模型开发、训练和应用。围绕当下大模型训练和推理的技术难点,专家们分享了如何在阿里云上实现稳定、高效、经济的大模型训练,并通过多个客户案例展示了云上大模型训练的显著优势。
|
27天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
18天前
|
并行计算 前端开发 物联网
全网首发!真·从0到1!万字长文带你入门Qwen2.5-Coder——介绍、体验、本地部署及简单微调
2024年11月12日,阿里云通义大模型团队正式开源通义千问代码模型全系列,包括6款Qwen2.5-Coder模型,每个规模包含Base和Instruct两个版本。其中32B尺寸的旗舰代码模型在多项基准评测中取得开源最佳成绩,成为全球最强开源代码模型,多项关键能力超越GPT-4o。Qwen2.5-Coder具备强大、多样和实用等优点,通过持续训练,结合源代码、文本代码混合数据及合成数据,显著提升了代码生成、推理和修复等核心任务的性能。此外,该模型还支持多种编程语言,并在人类偏好对齐方面表现出色。本文为周周的奇妙编程原创,阿里云社区首发,未经同意不得转载。
11733 12
|
12天前
|
人工智能 自然语言处理 前端开发
100个降噪蓝牙耳机免费领,用通义灵码从 0 开始打造一个完整APP
打开手机,录制下你完成的代码效果,发布到你的社交媒体,前 100 个@玺哥超Carry、@通义灵码的粉丝,可以免费获得一个降噪蓝牙耳机。
5395 14
|
19天前
|
人工智能 自然语言处理 前端开发
用通义灵码,从 0 开始打造一个完整APP,无需编程经验就可以完成
通义灵码携手科技博主@玺哥超carry 打造全网第一个完整的、面向普通人的自然语言编程教程。完全使用 AI,再配合简单易懂的方法,只要你会打字,就能真正做出一个完整的应用。本教程完全免费,而且为大家准备了 100 个降噪蓝牙耳机,送给前 100 个完成的粉丝。获奖的方式非常简单,只要你跟着教程完成第一课的内容就能获得。
9609 15
|
1月前
|
缓存 监控 Linux
Python 实时获取Linux服务器信息
Python 实时获取Linux服务器信息
|
17天前
|
人工智能 自然语言处理 前端开发
什么?!通义千问也可以在线开发应用了?!
阿里巴巴推出的通义千问,是一个超大规模语言模型,旨在高效处理信息和生成创意内容。它不仅能在创意文案、办公助理、学习助手等领域提供丰富交互体验,还支持定制化解决方案。近日,通义千问推出代码模式,基于Qwen2.5-Coder模型,用户即使不懂编程也能用自然语言生成应用,如个人简历、2048小游戏等。该模式通过预置模板和灵活的自定义选项,极大简化了应用开发过程,助力用户快速实现创意。
|
5天前
|
机器学习/深度学习 人工智能 安全
通义千问开源的QwQ模型,一个会思考的AI,百炼邀您第一时间体验
Qwen团队推出新成员QwQ-32B-Preview,专注于增强AI推理能力。通过深入探索和试验,该模型在数学和编程领域展现了卓越的理解力,但仍在学习和完善中。目前,QwQ-32B-Preview已上线阿里云百炼平台,提供免费体验。
|
13天前
|
人工智能 C++ iOS开发
ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码
本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。
916 5

热门文章

最新文章