快速使用 Elasticsearch+PAI 部署 AI 大模型知识库对话

简介: 本文为您介绍如何通过Elasticsearch和PAI-EAS部署企业级AI知识库对话,利用Elasticsearch进行企业专属知识库的检索,利用PAI-EAS来进行AI语言大模型推理,并通过开源框架LangChain将二者有机结合,从而集成到您的业务服务当中。

背景信息

阿里云检索分析服务 Elasticsearch 版是100%兼容开源的分布式检索、分析套件。提供 Elasticsearch、Kibana、Logstash、Beats 等开源全托管的产品服务能力。为结构化/非结构化数据提供低成本、高性能及可靠性的检索、分析平台级产品服务。具备读写分离、存算分离、弹性伸缩、智能化运维、免费的X-Pack高级商业特性等产品特性。


PAI-EAS 是阿里云的模型在线服务平台,支持用户将模型一键部署为在线推理服务或 AI-Web 应用,可以一键部署 LLM 推理、AIGC 等热门服务应用。PAI-EAS 适用于实时推理、近实时异步推理等多种 AI 推理场景,具备 Serverless 自动扩缩容和完整运维监控体系能力。


LangChain 是一个开源的框架,可以让 AI 开发人员将像通义千问这样的大语言模型(LLM)和外部数据结合起来,从而在尽可能少消耗计算资源的情况下,获得更好的性能和效果。通过 LangChain 将输入的用户知识文件进行自然语言处理存储在向量数据库中。每次推理用户的输入会首先在知识库中查找与输入问题相近的答案,并将知识库答案与用户输入一起输入 EAS 的大模型服务中生成基于知识库的定制答案。


第一步:开通检索分析服务 Elasticsearch 版

在开始使用时,需要购买一台 检索分析服务 Elasticsearch 版实例。

  1. 进入阿里云官网,找到 产品 -> 大数据计算 -> 检索分析服务 Elasticsearch 版 -> 管理控制台

image.png


  1. 左侧导航栏 “Elasticsearch 实例” ,点击创建实例。


  1. 基础配置:选择 阿里云Elasticsearch - 通用商业版8.x版本 - 通用场景,点击下一步。


  1. 集群配置:按需选择可用区数量实例规格 ,点击下一步。


  1. 网络及系统配置:按需选择专有网络及交换机(所配置的专用网络需与 PAI-EAS 服务保持一致),配置实例名称和登录密码 - 下一步


然后点击确认订单:购买之后,返回“管理控制台”等待实例启动。


  1. 待状态变为“正常”,点击实例进入查看调用信息,记录私网地址和端口。



第二步:利用 EAS 部署 LLM 大模型推理服务

利用 PAI-EAS 部署大模型推理服务,具体操作步骤如下。

  1. 进入PAI EAS 模型在线服务页面。
  1. 登录 PAI控制台
  2. 在左侧导航栏单击工作空间列表,在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。
  3. 在工作空间页面的左侧导航栏选择模型部署>模型在线服务(EAS),进入 PAI EAS 模型在线服务页面。


  1. PAI EAS 模型在线服务页面,单击部署服务
  2. 部署服务页面,配置以下关键参数。

参数

描述

服务名称

自定义服务名称。本案例使用的示例值为:chatllm_llama2_13b

部署方式

选择镜像部署AI-Web应用

镜像选择

PAI平台镜像列表中选择chat-llm-webui,镜像版本选择2.0

由于版本迭代迅速,部署时镜像版本选择最高版本即可。

运行命令

服务运行命令:

  • 如果使用chatglm2-6b模型进行部署:python webui/webui_server.py --port=8000 --model-path=THUDM/chatglm2-6b
  • 如果使用通义千问-7b模型进行部署:python webui/webui_server.py --port=8000 --model-path=Qwen/Qwen-7B-Chat
  • 如果使用llama2-7b模型进行部署:python webui/webui_server.py --port=8000 --model-path=meta-llama/Llama-2-7b-chat-hf
  • 如果使用llama2-13b模型进行部署:python webui/webui_server.py --port=8000 --model-path=meta-llama/Llama-2-13b-chat-hf --precision=fp16

端口号输入:8000

资源组种类

选择公共资源组

资源配置方法

选择常规资源配置

资源配置选择

必须选择GPU类型,实例规格推荐使用ml.gu7i.c8m30.1-gu30

7b的模型可以跑在GU30/A10/P100机型上。

13b的模型务必跑在gn6e的V100或A100的机型上。

专有网络配置

保持与Elasticsearch创建时的VPC一致!



  1. 单击部署,等待一段时间即可完成模型部署。
  2. 进入服务详情页中,点击查看调用信息,查看服务调用中 VPC 地址调用的的 API 和 token。



第三步:利用 Langchain 将业务串联并启动可视化 WEBUI

开源代码与公开镜像

GIthub 开源代码地址:https://github.com/aigc-apps/LLM_Solution/tree/master

我们提供了最方便快捷的部署方式,直接在 PAI-EAS 中选择平台镜像即可。


使用流程

1. PAI-EAS 部署 chatbot-langchain 的 webui 服务


参数

描述

服务名称

自定义服务名称。本案例使用的示例值为:chatbot_langchain_vpc

部署方式

选择镜像部署AI-Web应用

镜像选择

PAI平台镜像列表中选择chatbot-langchain,镜像版本选择1.0

由于版本迭代迅速,部署时镜像版本选择最高版本即可。

运行命令

服务运行命令:

  • uvicorn webui:app --host 0.0.0.0 --port 8000

端口号输入:8000

资源组种类

选择公共资源组

资源配置方法

选择常规资源配置

资源配置选择

选择CPU机型:ecs.c7.4xlarge

额外系统盘:60G

专有网络配置

保持与 Elasticsearch 创建时的VPC一致!



2. 待状态变为“运行中”后,查看Web应用,进入WebUI


3. Settings:用户配置相关参数

  • Embeding Model:支持四种可选的 embedding model 及其对应维度。推荐使用 SGPT-125M-weightedmean-nli-bitfit (dim=768)。
  • EAS:配置 EAS-LLM 相关参数。参考第二步配置后的内容:利用 EAS 部署 LLM 大模型推理服务。
  • VectorStore:配置 Elasticsearch 相关的连接参数。参考第一步配置后的内容:开通 Elasticsearch。
  • 支持方式:1)上传配置文件并解析;2)手动输入。
  • 配置文件格式可参考:
{
  "embedding": {
    "model_dir": "embedding_model/",
    "embedding_model": "SGPT-125M-weightedmean-nli-bitfit",
    "embedding_dimension": 768
  },
  "EASCfg": {
    "url": "http://xx.pai-eas.aliyuncs.com/api/predict/chatllm_demo_glm2",
    "token": "xxxxxxx=="
  },
  "vector_store": "Elasticsearch",
  "ElasticSearchCfg": {
    "ES_URL": "http://es-cn-xxx.elasticsearch.aliyuncs.com:9200",
    "ES_USER": "elastic",
    "ES_PASSWORD": "password",
    "ES_INDEX": "test_index"
  },
}


{
"embedding": {
"model_dir": "embedding_model/",
"embedding_model": "SGPT-125M-weightedmean-nli-bitfit",
"embedding_dimension": 768  },
"EASCfg": {
"url": "http://xx.pai-eas.aliyuncs.com/api/predict/chatllm_demo_glm2",
"token": "xxxxxxx=="  },
"vector_store": "Elasticsearch",
"ElasticSearchCfg": {
"ES_URL": "http://es-cn-xxx.elasticsearch.aliyuncs.com:9200",
"ES_USER": "elastic",
"ES_PASSWORD": "password",
"ES_INDEX": "test_index"  },
}


4. Upload:用户上传知识库文档

  • 支持多文件上传;支持文件夹上传;支持多种格式:TXT, DOCS, PDF等;
  • chunk-size:指定每个分块的大小,默认200;
  • chunk-overlap:相邻分块之间的重叠量,默认0;


5. Chat:知识问答

  • 支持三种问答方式:VectorStore、LLM、Langchain (VectorStore+LLM)


  • VectorStore:直接从检索分析服务 Elasticsearch 版中检索返回 topK 条相似结果;


  • LLM:直接与 EAS-LLM 对话,返回大模型的回答;


  • Langchain:将 Elasticsearch 检索返回后的结果与用户问题组装成可自定义 prompt,送入 EAS-LLM 服务,得到问答结果。


  • Retrieval top K answers:设置 Elasticsearch 返回的相似结果条数,默认为3;


  • Prompt Design:可用户自定义的 prompt,默认参考:"基于以下已知信息,简洁和专业地回答用户的问题。如果无法从中得到答案,请说 \"根据已知信息无法回答该问题\" 或 \"没有提供足够的相关信息\",不允许在答案中添加编造成分,答案请使用中文。\n=====\n已知信息:\n{context}\n=====\n用户问题:\n{question}";另外,英文场景下的"prompt_template"内容可以改为"Answer user questions concisely and professionally based on the following known information. If the answer cannot be obtained from it, please say 'Unable to answer the question based on the known information' or 'Insufficient relevant information provided'. Fabricated scores are not allowed to be added in the answer. The answer should be in English. \n=====\nKnown information:\n{context}\n=====\nUser question:\n{question}"


6. API 调用

查看调用信息,记录 URL 和 Token


  • /config: 上传config_es.json建立服务连接
  • Curl Command
curl-X'POST''http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com/config'-H'Authorization: xxxx=='-H'accept: application/json'-H'Content-Type: multipart/form-data'-F'file=@config_es.json'{"response": "success"}


  • Python Script
importrequestsEAS_URL='http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com'deftest_post_api_config():
url=EAS_URL+'/config'headers= {
'Authorization': 'xxxxx==',
    }
files= {'file': (open('config_es.json', 'rb'))}
response=requests.post(url, headers=headers, files=files)
ifresponse.status_code!=200:
raiseValueError(f'Error post to {url}, code: {response.status_code}')
ans=response.json()
returnans['response']


  • /uploadfile: 上传本地知识库文件
  • Curl Command
curl-X'POST''http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com/uploadfile'-H'Authorization: xxxx=='-H'accept: application/json'-H'Content-Type: multipart/form-data'-F'file=@docs/PAI.txt;type=text/plain'{"response": "success"}


  • Python Script
importrequestsEAS_URL='http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com'deftest_post_api_uploafile():
url=EAS_URL+'/uploadfile'headers= {
'Authorization': 'xxxxx==',
    }
files= {'file': (open('docs/PAI.txt', 'rb'))}
response=requests.post(url, headers=headers, files=files)
ifresponse.status_code!=200:
raiseValueError(f'Error post to {url}, code: {response.status_code}')
ans=response.json()
returnans['response']
# success


  • 知识问答:提供三种问答方式:(1)chat/vectorstore;(2)chat/llm;(3)/chat/langchain
  • Curl Command
curl-X'POST''http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com/chat/vectorstore'-H'Authorization: xxxx=='-H'accept: application/json'-H'Content-Type: application/json'-d'{"question": "什么是机器学习PAI?"}'curl-X'POST''http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com/chat/llm'-H'Authorization: xxxx=='-H'accept: application/json'-H'Content-Type: application/json'-d'{"question": "什么是机器学习PAI?"}'curl-X'POST''http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com/chat/langchain'-H'Authorization: xxxx=='-H'accept: application/json'-H'Content-Type: application/json'-d'{"question": "什么是机器学习PAI?"}'


  • Python Script
importrequestsEAS_URL='http://chatbot-langchain.xx.cn-beijing.pai-eas.aliyuncs.com'deftest_post_api_chat():    
url=EAS_URL+'/chat/vectorstore'# url = EAS_URL + '/chat/llm'# url = EAS_URL + '/chat/langchain'headers= {
'accept': 'application/json',
'Content-Type': 'application/json',
'Authorization': 'xxxxx==',
    }
data= {
'question': '什么是机器学习PAI?'    }
response=requests.post(url, headers=headers, json=data)
ifresponse.status_code!=200:
raiseValueError(f'Error post to {url}, code: {response.status_code}')
ans=response.json()
returnans['response']


7. 效果演示

  • 上传配置文件并解析;解析后相关参数自动填入;单击"Connect Elasticsearch"显示连接状态。(一般10s可连接成功)


  • 上传知识库文件,等到几秒后显示上传成功状态。

 

  • 聊天问答
  • Vectore Store


  • LLM


  • Langchain (Vectore Store + LLM)



相关文章
|
10天前
|
人工智能 API 开发工具
【重磅发布】 免费领取阿里云百炼AI大模型100万Tokens教程出炉,API接口实战操作,DeepSeek-R1满血版即刻体验!
阿里云百炼是一站式大模型开发及应用构建平台,支持开发者和业务人员轻松设计、构建大模型应用。通过简单操作,用户可在5分钟内开发出大模型应用或在几小时内训练专属模型,专注于创新。
336 87
【重磅发布】 免费领取阿里云百炼AI大模型100万Tokens教程出炉,API接口实战操作,DeepSeek-R1满血版即刻体验!
|
4天前
|
人工智能 JSON PyTorch
TPO:告别微调!这个AI框架让大模型实时进化:无需训练直接优化,输入问题越用越聪明,输出质量暴涨50%
TPO(Test-Time Prompt Optimization)框架,通过奖励模型和迭代反馈优化大语言模型输出,无需训练即可显著提升性能,支持动态对齐人类偏好,降低优化成本。
125 8
TPO:告别微调!这个AI框架让大模型实时进化:无需训练直接优化,输入问题越用越聪明,输出质量暴涨50%
|
5天前
|
人工智能 监控 自动驾驶
Migician:清北华科联手放大招!多图像定位大模型问世:3秒锁定跨画面目标,安防监控迎来AI革命!
Migician 是北交大联合清华、华中科大推出的多模态视觉定位模型,支持自由形式的跨图像精确定位、灵活输入形式和多种复杂任务。
55 3
Migician:清北华科联手放大招!多图像定位大模型问世:3秒锁定跨画面目标,安防监控迎来AI革命!
|
18天前
|
人工智能 开发框架 机器人
AstrBot:轻松将大模型接入QQ、微信等消息平台,打造多功能AI聊天机器人的开发框架,附详细教程
AstrBot 是一个开源的多平台聊天机器人及开发框架,支持多种大语言模型和消息平台,具备多轮对话、语音转文字等功能。
2739 15
AstrBot:轻松将大模型接入QQ、微信等消息平台,打造多功能AI聊天机器人的开发框架,附详细教程
|
16天前
|
人工智能 数据可视化 搜索推荐
免费+数据安全!手把手教你在PC跑DeepSeek-R1大模型,小白也能秒变AI大神!
本地部署AI模型(如DeepSeek R1)保障数据隐私、节省成本且易于控制,通过Ollama平台便捷安装与运行,结合可视化工具(如Chatbox)及Python代码调用,实现高效、个性化的AI应用开发与使用。
144 3
免费+数据安全!手把手教你在PC跑DeepSeek-R1大模型,小白也能秒变AI大神!
|
13天前
|
人工智能 算法 调度
DeepSeek杀疯了!国产AI大模型如何重构未来技术版图?
【爆款导读】当ChatGPT还在为每月10亿访问量沾沾自喜时,中国AI军团已悄然完成弯道超车。2025年开年,DeepSeek以雷霆之势横扫中美应用商店双榜,上线72小时突破千万DAU,开发者生态激增300%。通过优化算法降低成本、多模态能力提升效率,DeepSeek不仅在用户数量上取得突破,更在实际应用场景中展现强大实力。其开源策略推动技术民主化,助力更多开发者参与AI开发,成为AI军备竞赛中的佼佼者。
184 20
|
4天前
|
人工智能 运维 Kubernetes
大模型进化论:AI如何颠覆系统优化?
大模型进化论:AI如何颠覆系统优化?
26 10
|
7天前
|
人工智能 算法 搜索推荐
AI大模型发展对语音直播交友系统源码开发搭建的影响
近年来,AI大模型技术的迅猛发展深刻影响了语音直播交友系统的开发与应用。本文探讨了AI大模型如何提升语音交互的自然流畅性、内容审核的精准度、个性化推荐的智能性以及虚拟主播的表现力,并分析其对开发流程和用户体验的变革。同时,展望了多模态交互、情感陪伴及元宇宙社交等未来发展方向,指出在把握机遇的同时需应对数据安全、算法偏见等挑战,以实现更智能、安全、有趣的语音直播交友平台。
|
2天前
|
人工智能 自然语言处理 机器人
招商银行X通义大模型,2024年度AI最佳实践案例!
招商银行X通义大模型,2024年度AI最佳实践案例!
28 2
|
2天前
|
机器学习/深度学习 人工智能 算法
DeepSeek:掀翻互联网底层的“东方神秘力量” ——当AI大模型成为网络世界的“基建狂魔”
DeepSeek正重构网络底层逻辑,从“哑管道”到“认知神经”,赋予网络思考能力。它通过意图驱动和认知架构,优化带宽资源,提升效率。技术上,MOE+MLA架构与FP8精度训练大幅降低成本,性能超越传统模型。产业链方面,通信巨头转型为“AI驯兽师”,推出智能预测、定制化网络等服务。然而,AI基建也面临安全挑战,如僵尸网络攻击和隐私问题。展望6G,AGI将成新“网络原住民”,带来更智能的服务。这场变革不仅提升了连接效率,还创造了更多价值。

热门文章

最新文章

相关产品

  • 检索分析服务 Elasticsearch版