基于阿里云向量检索服务搭建AI智能问答机器人

简介: 基于阿里云向量检索服务搭建AI智能问答机器人

一、概述

什么是向量检索服务

向量检索服务DashVector基于通义实验室自研的高效向量引擎Proxima内核,提供具备水平拓展能力的云原生、全托管的向量检索服务。DashVector将其强大的向量管理、向量查询等多样化能力,通过简洁易用的SDK/API接口透出,方便被上层AI应用迅速集成,从而为包括大模型生态、多模态AI搜索、分子结构分析在内的多种应用场景,提供所需的高效向量检索能力。

上边是来自阿里云的官方文档,每个字都认识,放到一起就是看不懂它能干嘛!,所以又重新搜索了下看它都能用来干嘛:

应用场景

  • 搜索引擎:搜索引擎是向量检索技术最为常见的应用场景之一。通过对用户查询语句和网页内容进行向量化表示,可以实现更加精准的搜索结果匹配。
  • 推荐系统:推荐系统也是向量检索技术的重要应用场景之一。通过对用户历史行为和商品属性进行向量化表示,可以实现个性化的推荐服务。
  • 文本分类:文本分类是将文本按照类别进行分类的任务。向量检索技术可以将文本表示成向量,从而实现更加准确的文本分类。
  • 电商智能搜索和偏好推荐场景:在电商智能搜索和偏好推荐场景中,向量数据库可以实现基于向量相似度的搜索和推荐功能。例如一个电商平台中包含了各种商品的图像和描述信息,用户在搜索商品时,可以通过图像或者描述信息查询相关的商品,并且还希望能够实现推荐功能,自动向用户推荐可能感兴趣的商品。
  • 图片、视频、语音、文本等非结构化数据:非结构化数据可以通过人工智能技术(深度学习算法)提取特征向量,然后通过对这些特征向量的计算和检索来实现对非结构化数据的分析与检索。具体应用如:车辆检索和商品图片检索、视频处理的实时轨迹跟踪、基于语义的文本检索和推荐、声纹匹配、音频检索、文件去重以及新药搜索和基因筛选等。
  • AI问答:典型的问答系统比如通义千问、ChatGPT、在线客户服务系统、QA聊天机器人等。在一个问答系统,其中包含了一些预定义的问题和对应的答案。用户希望能够根据输入的问题,自动匹配到最相似的预定义问题,并返回对应的答案。

看了它的应用场景,以我的理解它就是一个找相似度的搜索工具,应用比较多的应该是电商偏好推荐和AI问答做客服机器人。以下我们就用它的免费试用产品来做一个AI客服机器人 。

二、入门试用

试用创建集群

在链接页面上领取试用资源,有一个月的试用期:https://developer.aliyun.com/topic/dashvector 开通的时候需要填Cluster集群名称。
然后进到向量检索的控制台 https://dashvector.console.aliyun.com/cn-hangzhou/cluster ,因为开通的是Serverless版本的,几乎是秒启动。可以看到集群状态已经是运行正常了。

image-20240105105700362.png

api测试

我们点右侧菜单API-KEY管理先创建一个api-key来进行测试。DashVector提供了python和java的sdk和HTTP API来操作,我们这里使用python的SKD来试用

pip3 install dashvector  ##安装SKD

我这里新建了一个test_dashvector.py的文件来对dashvector简单操作,所做的操作在源码注释里可以参考

#!/usr/bin/env python3
# coding=utf-8
import dashvector
from dashvector import Doc

client = dashvector.Client(
    api_key='sk-xxxxxxxxxxxx',      ###api_key,上边刚建的
    endpoint='vrs-cn-xxxxxxxxxxxxxxx'  ##访问端口在集群详情里获取
)
assert client

client.delete('news_embedings2')

#创建一个名称为quickstart,向量维度为4的 collection
client.create(name='quickstart', dimension=4)

collection = client.get('quickstart')
assert collection


# 通过dashvector.Doc对象,插入单条数据
collection.insert(Doc(id='1', vector=[0.1, 0.2, 0.3, 0.4]))

# 通过dashvector.Doc对象,批量插入2条数据
collection.insert(
    [
        Doc(id='2', vector=[0.2, 0.3, 0.4, 0.5], fields={
   
   'age': 20, 'name': 'zhangsan'}),
        Doc(id='3', vector=[0.3, 0.4, 0.5, 0.6], fields={
   
   'anykey': 'anyvalue'})
    ]
)

# 删除1条Doc数据

collection.delete(ids=['3'])

# 查看Collection统计信息
stats = collection.stats()

print(stats)

#删除Collection
# client.delete('quickstart')

上边的代码会为集群建一个collection(一个集合,同一类数据放在一起),为collection插入和删除数据。也可以在控制台上做以上操作,在集群控制台的collection列表中点击进入这个collection,新增、更新、删除、查询等操作都可以在这里进行。注意试用的集群只能建两个Collection,超过两个会报错。

三、AI智能问答机器人

准备工作:

客服语料数据: 需要有相关的语料知识库来生成向量数据,这里用的是在github上找了一个语料 https://github.com/PlexPt/chatgpt-corpus/blob/main/kefu/1.md 自己用的时候可以参考修改

模型服务灵积api-key:在使用语料库生成向量数据时需要用到text-embedding的模型,所以以需要建一个灵积的api-key:https://dashscope.console.aliyun.com/apiKey 注意这里的api是收费的,开通时送的有免费额度,足够这次测试试用了。在上方的总览里也能看到用过的模型和剩余免费额度

具体代码实现:

1、embedding.py 文件:主要是将1.md语料按行生成向量值,然后写入到名为kefu_embedings的collection中。

#!/usr/bin/env python3
# coding=utf-8
import dashscope
from dashscope import TextEmbedding

from dashvector import Client, Doc


def prepare_data(path, batch_size=25):
    f=open(path, 'r', encoding='utf-8')
    lines=f.readlines()
    batch_docs = []
    for line in lines:
        batch_docs.append(line)
        if len(batch_docs) == batch_size:
            yield batch_docs
            batch_docs = []

    if batch_docs:
        yield batch_docs

def generate_embeddings(news):
    rsp = TextEmbedding.call(
        model=TextEmbedding.Models.text_embedding_v1,
        input=news
    )
    embeddings = [record['embedding'] for record in rsp.output['embeddings']]
    return embeddings if isinstance(news, list) else embeddings[0]


if __name__ == '__main__':
    ##灵积模型服务的key
    dashscope.api_key = 'sk-xxxxxxxx'

    # 初始化 dashvector client--DashVector向量检索服务
    client = Client(
        api_key='sk-xxxxxxxxxxxxxxxxx',
        endpoint='vrs-cn-xxxxxxxx'
    )

    collection='kefu_embedings'
    ret = client.delete(name=collection)
    assert ret


    # 创建集合:指定集合名称和向量维度, text_embedding_v1 模型产生的向量统一为 1536 维
    rsp = client.create(collection, 1536)
    assert rsp

    # 加载语料
    id = 0
    collection = client.get(collection)
    for news in list(prepare_data('1.md')): ##1.md为语料库,在程序同级目录中,每行一个问题及答案
        #print(news)
        ids = [id + i for i, _ in enumerate(news)]
        id += len(news)

        vectors = generate_embeddings(news)
        # 写入 dashvector 构建索引
        rsp = collection.upsert(
            [
                Doc(id=str(id), vector=vector, fields={
   
   "raw": doc})
                for id, vector, doc in zip(ids, vectors, news)
            ]
        )
        assert rsp

2、question.py 文件:使用导入的语料来查询


#!/usr/bin/env python3
# coding=utf-8
from dashvector import Client

from embedding import generate_embeddings
import dashscope

from dashscope import Generation


def answer_question(question, context):
    prompt = f'''请基于```内的内容回答问题。"
    ```
    {context}
    ```
    我的问题是:{question}。
    '''

    rsp = Generation.call(model='qwen-turbo', prompt=prompt)
    return rsp.output.text

def search_relevant_news(question,collection):
    # 初始化 dashvector client--DashVector向量检索服务
    client = Client(
        api_key='sk-xxxxxxxxxxxxxxxxxx',  ##向量检索api-key
        endpoint='vrs-cn-xxxxxxxxxxxxx'         ###集群地址
    )

    # 获取刚刚存入的集合
    collection = client.get(collection)
    assert collection

    # 向量检索:指定 topk = 1
    rsp = collection.query(generate_embeddings(question), output_fields=['raw'],
                           topk=1)
    assert rsp
    return rsp.output[0].fields['raw']

if __name__ == '__main__':
    dashscope.api_key = 'sk-xxxxxxxxxxxxxx'   ###积灵模型api-key
    collection='kefu_embedings'
    # question = '我的订单还没有到货,我想取消订单怎么来操作?'
    # question = '最近的订单在哪里查?'
    question = '小明的爸爸妈妈结婚为什么没有邀请小明?'
    context = search_relevant_news(question,collection)
    answer = answer_question(question, context)

    print(f'问题: {question}\n' f'回答: {answer}')

测试:

测试了如下三个问题,可以看出回答还是相当准确的,不是相关的问题也不会有提示:

问题: 我的订单还没有到货,我想取消订单怎么来操作?
回答: 您可以进入“我的订单”页面,找到相应的订单后点击取消订单按钮即可。需要注意的是,只有未发货的订单才能被取消。

问题: 最近的订单在哪里查?
回答: 您可以登录我们的网站,点击“我的订单”选项卡,并输入您的订单号码和密码,以查看您最近的订单状态。

问题: 小明的爸爸妈妈结婚为什么没有邀请小明?
回答: 抱歉,这个问题与提供的信息无关,请提出相关问题。

四、问题及建议

1、API的接口报错信息有待加强,现在报错基本没有信息提示,得自己慢慢排查
2、控制台要更加完善,增加批量导入、自动生成向量等界面,更加方便的增加和修改内容库

参考:

https://help.aliyun.com/document_detail/2510235.html

相关文章
|
2月前
|
人工智能 自然语言处理 安全
用AI重构人机关系,OPPO智慧服务带来了更“懂你”的体验
OPPO在2025开发者大会上展现智慧服务新范式:通过大模型与意图识别技术,构建全场景入口矩阵,实现“服务找人”。打通负一屏、小布助手等系统级入口,让服务主动触达用户;为开发者提供统一意图标准、一站式平台与安全准则,降低适配成本,共建开放生态。
341 31
|
5月前
|
存储 关系型数据库 数据库
附部署代码|云数据库RDS 全托管 Supabase服务:小白轻松搞定开发AI应用
本文通过一个 Agentic RAG 应用的完整构建流程,展示了如何借助 RDS Supabase 快速搭建具备知识处理与智能决策能力的 AI 应用,展示从数据准备到应用部署的全流程,相较于传统开发模式效率大幅提升。
附部署代码|云数据库RDS 全托管 Supabase服务:小白轻松搞定开发AI应用
|
3月前
|
人工智能 机器人 Serverless
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
当云计算遇见具身智能,AI咖啡开启零售新体验。用户通过手机生成个性化图像,云端AI快速渲染,机器人精准复刻于咖啡奶泡之上,90秒内完成一杯可饮用的艺术品。该方案融合阿里云FunctionAI生图能力与安诺机器人高精度执行系统,实现AIGC创意到实体呈现的闭环,为线下零售提供低成本、高互动、易部署的智能化升级路径,已在商场、机场、展馆等场景落地应用。
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
|
3月前
|
人工智能 Java 机器人
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
Spring AI Alibaba集成Ollama,基于Java构建本地大模型应用,支持流式对话、knife4j接口可视化,实现高隐私、免API密钥的离线AI服务。
3046 2
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
|
3月前
|
机器学习/深度学习 人工智能 机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
|
3月前
|
存储 人工智能 监控
LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作
如今的量化交易已远超传统技术指标,迈向多智能体协作的新时代。本文介绍了一个基于 **LangGraph** 构建的多智能体交易系统,模拟真实投资机构的运作流程:数据分析师收集市场情报,研究员展开多空辩论,交易员制定策略,风险团队多角度评估,最终由投资组合经理做出决策。系统具备记忆学习能力,通过每次交易积累经验,持续优化决策质量。
765 8
LangGraph实战:从零构建智能交易机器人,让多个AI智能体像投资团队一样协作
|
2月前
|
人工智能 供应链 搜索推荐
拔俗AI 智能就业咨询服务平台:求职者的导航,企业的招聘滤网
AI智能就业平台破解求职招聘困局:精准匹配求职者、企业与高校,打破信息壁垒。简历诊断、岗位推荐、技能提升一站式服务,让就业更高效。
|
2月前
|
人工智能 Cloud Native 自然语言处理
拔俗AI智能体服务开发:你的7x24小时数字员工,让企业效率飙升的秘密武器
在“人效为王”时代,企业面临服务响应慢、成本高、协同难等痛点。阿里云AI智能体以自主决策、多模态交互、持续学习三大引擎,打造永不疲倦的“数字员工”,实现7×24小时高效服务,助力企业降本增效、驱动创新增长。(238字)
|
2月前
|
人工智能 供应链 算法
AI 产业服务平台:打造产业智能化的“加速器”与“连接器”
AI产业服务平台整合技术、数据、算力与人才,为中小企业提供低门槛、一站式AI赋能服务,覆盖研发、生产、营销、管理全链条,助力产业智能化转型。