AIGC-知识库-LLM:在云上从0开始搭建智能问答机器人Streamlit网页版

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: 本文描述在阿里云上从0开始构建个人/企业专属,具备私域知识库+LLM智能问答能力的网页版聊天机器人。网页采用streamlit实现,知识库技术方案使用了Lindorm AI数据服务平台知识库能力,LLM使用了开源ChatGLM2-6B。 Streamlit使用起来非常简便,可以让开发者快速(短则几十分钟即可)搭建一个具备公网访问能力的网页。尤其在人工智能开发上,可使用Streamlit快速搭建应用环境,让开发人员将更多精力集中在人工智能本身,本文从0开始详细讲解整个应用的构建过程,代码实现了一个简洁的具备公网访问能力的网页版聊天机器人。

一、开通和配置ECS

1、 创建ECS实例(以Ubuntu系统为例),作为登录数据库的客户端。设置ECS用户名及登录密码(使用ecs-user登录,如果使用root安装,后续部分安装包会提示有权限风险)。

2、 设置安全组配置,配置出方向端口22,并在源IP中加入本机IP

image.png

3、本机ssh到云ECS

 

二、构建自己的知识库+LLM

1、 根据产品指导书,开通Lindorm知识库+LLM实例,并根据指导书导入或SQL方式写入自己的知识文档,完成知识库的构建。该方案安装部署LLM非常简便,仅需一条简单的SQL命令即可完成安装。使用也非常简便,也是几条简洁的SQL即可(详见)。

2、 ECS客户端IP加入到Lindorm数据库白名单,确保ECS可以正常访问Lindorm数据库。可以在ECS上安装Lindorm CLI客户端进行测试。

3、 ECS上安装phoenixdb(用于连接数据库):pip install phoenixdb==1.2.0

 注意:有些系统版本在安装时,可能会报错“subprocess.CalledProcessError: Command 'krb5-config --libs gssapi' returned non-zero exit status 127”,原因是缺乏安装依赖,需执行如下命令后再安装:sudo apt-get -y install gcc libkrb5-dev

 

三、编写Streamlit网页程序

说明:该程序运行在ECS上,用于对外提供网页版问答机器人服务界面。

1、 ECS安装Streamlit需要的模块pip install streamlit   pip install streamlit-chat

2、 编写Streamlit网页程序(Python脚本)。

#!/bin/python3# -*- coding: utf-8 -*-importstreamlitasstimportphoenixdbfromconfigs.lindorm_config_chatbotimport*# global env:如下配置正式使用时请放在单独的配置文件中,如:lindorm_config_chatbot# 这里的链接地址与lindorm-cli的链接地址比,需要去掉http之前的字符串# LINDORM_URL = "http://ld-XXXX-proxy-lindorm-pub.lindorm.rds.aliyuncs.com:30060"# LINDORM_USER_NAME = 'XXXX'# LINDORM_USER_PW = 'XXXX'# 连接到lindorm数据库defconnect(kw_args):
try:
returnphoenixdb.connect(LINDORM_URL, autocommit=True, **kw_args)
exceptAttributeError:
print("Failed to connect")
# 连接Lindorm数据库,调用AI数据服务平台SQL查询接口,获取Lindorm知识库问答结果# 用户名通过lindorm_user字段传递,密码使用lindorm_password字段设置,database字段设置连接初始化默认数据库。connect_kw_args= {'lindorm_user': LINDORM_USER_NAME, 'lindorm_password': LINDORM_USER_PW, 'database': 'default'}
connection=connect(connect_kw_args)
st.set_page_config(
page_title="LLM智能问答",
page_icon=":robot:",
layout='wide')
st.title("LLM智能问答-小智")
# 如果存在多个智能问答模型,可以做成复选框方式LLM_MODEL=st.sidebar.selectbox(
'请选择模型',
('ChatGLM2-6B', 'Lindorm-QA')
)
if"history"notinst.session_state:
st.session_state.history= []
# 历史对话信息展示for (query, response) inst.session_state.history:
withst.chat_message(name="user", avatar="user"):
st.markdown(query)
withst.chat_message(name="assistant", avatar="assistant"):
st.markdown(response)
# 尝试使用text_area来接收用户的问题输入,发现对话界面很混乱。历史记录在界面上方,输入框在中间,最新的问答在下方。所以放弃了该方式,代码如下面3行#prompt = st.text_area(label="用户问题输入", height=100, placeholder="请在这儿输入您的问题")#button = st.button("发送", key="aigc")#if button:# 用户输入问题ifprompt :=st.chat_input("请在这儿输入您的问题"):
# 在界面上展示用户输入的问题st.chat_message("user").markdown(prompt)
response=""withconnection.cursor() asstatement:
# 查询Lindorm AI实例,返回知识库+LLM答案sql_select="select ai_infer('%s', '%s')"% (LLM_MODEL, prompt)
statement.execute(sql_select)
sql_response=statement.fetchall()
response=sql_response[0][0]  # 查询返回是list格式,需要取list[0][0],转换为str格式# 在界面上展示LLM给出的答案st.chat_message("assistant").markdown(response)
# 将本轮问答信息追加记录到history中,用于实现多轮对话展示st.session_state.history.append((prompt, response))
# print("session_state.history:", st.session_state.history)connection.close()

代码详解:

Lindorm提供了类JDBC的连接和使用方式,使用起来非常简便。对于知识库和LLM的调用,直接使用SQL查询方式即可返回LLM的问答结果,将返回的内容进行格式化整理即可:

with connection.cursor() as statement:

       # 查询Lindorm AI实例,返回知识库+LLM答案

       sql_select = "select ai_infer('%s', '%s')" % (LLM_MODEL, prompt)

      statement.execute(sql_select)

       sql_response = statement.fetchall()

       response = sql_response[0][0]  # 查询返回是list格式,需要取list[0][0],转换为str格式

 

3、 添加安全组规则:在ECS实例安全组的入方向添加安全组规则,将需要访问服务网页的IP地址或地址段添加到8501端口的源(该端口是Streamlit默认服务端口,也可以自定义)。

image.png

 

4、运行脚本:streamlit run chatBot_web_demo.py &。如果要指定服务端口,则需要在安全组放行该端口,运行时带上端口参数,如:streamlit run chatBot_web_demo.py --server.port 6006 &。程序运行后会打印网页URL地址。

 

四、效果展示

在浏览器中输入网页URL地址,即可与LLM智能问答机器人进行问答。该地址是ECS的公网IP,具备公网访问能力,且可以通过配置安全组8501端口的访问源IP来实现访问源的控制,使用起来非常便捷。

image.png

 

 

五、必薅羊毛

对于喜欢研究学习LLMAIGC、知识库、智能问答、文生图等方面的爱好者,或想借助AIGC能力用于工作、学习中的人,发现阿里云最近有系列AIGC相关的优惠活动推出。

 

在此推荐一个智能问答、文生图相关的AIGC优惠活动:秒级开通,仅60/月,即刻畅享私域知识库+LLM智能问答系统。该系统可以直接玩开源LLM、还可以上传自己的私域文档构建自己的知识库,文生图应用貌似也要上线了。

 

新用户首次开通还可获得100元猫超卡奖励,目前该奖励活动还在有效期内,手慢无。

活动链接:https://www.aliyun.com/activity/ambassador/Lindorm

 

开通后,即刻就能使用,界面截图:

image.png

相关实践学习
通义万相文本绘图与人像美化
本解决方案展示了如何利用自研的通义万相AIGC技术在Web服务中实现先进的图像生成。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
24天前
|
数据采集 JSON 自然语言处理
超越传统XPath:用LLM理解复杂网页信息
本文深入探讨网页信息抽取技术的演进,从传统 XPath/CSS 结构匹配,到结合 LLM(大语言模型)的语义理解方法。分析了旧技术在动态渲染、结构变化和语义识别方面的局限,并通过架构图、实验数据和示例代码展示 LLM 在新闻、电商、社交等复杂场景中的高效应用。同时强调爬虫代理等基础设施的重要性,为信息抓取提供稳定网络环境。
超越传统XPath:用LLM理解复杂网页信息
|
18天前
|
数据采集 自动驾驶 机器人
数据喂得好,机器人才能学得快:大数据对智能机器人训练的真正影响
数据喂得好,机器人才能学得快:大数据对智能机器人训练的真正影响
69 1
|
7月前
|
人工智能 自然语言处理 机器人
9.9K star!大模型原生即时通信机器人平台,这个开源项目让AI对话更智能!
"😎高稳定、🧩支持插件、🦄多模态 - 大模型原生即时通信机器人平台"
205 0
|
5月前
|
弹性计算 自然语言处理 Ubuntu
从0开始在阿里云上搭建基于通义千问的钉钉智能问答机器人
本文描述在阿里云上从0开始构建一个LLM智能问答钉钉机器人。LLM直接调用了阿里云百炼平台提供的调用服务。
从0开始在阿里云上搭建基于通义千问的钉钉智能问答机器人
|
4月前
|
机器人
陌陌自动回复消息脚本,陌陌自动打招呼回复机器人插件,自动聊天智能版
这是一款为陌陌用户设计的自动回复软件,旨在解决用户无法及时回复消息的问题,提高成交率和有效粉丝数。软件通过自动化操作实现消息检测与回复功能
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
TsingtaoAI具身智能机器人开发套件及实训方案
该产品套件创新性地融合了先进大模型技术、深度相机与多轴协作机械臂技术,构建了一个功能强大、灵活易用的人机协作解决方案。其核心在于将智能决策、精准感知与高效执行完美结合,为高校实训领域的发展注入新动力。
413 10
|
9月前
|
人工智能 机器人 API
AppFlow:无代码部署Dify作为钉钉智能机器人
本文介绍如何通过计算巢AppFlow完成Dify的无代码部署,并将其配置到钉钉中作为智能机器人使用。首先,在钉钉开放平台创建应用,获取Client ID和Client Secret。接着,创建消息卡片模板并授予应用发送权限。然后,使用AppFlow模板创建连接流,配置Dify鉴权凭证及钉钉连接凭证,完成连接流的发布。最后,在钉钉应用中配置机器人,发布应用版本,实现与Dify应用的对话功能。
1823 7
AppFlow:无代码部署Dify作为钉钉智能机器人
|
6月前
|
人工智能 自然语言处理 安全
Deepseek 的 “灵魂”,宇树的 “躯体”,智能机器人还缺一个 “万万不能”
法思诺创新探讨智能机器人产业的发展,指出Deepseek的AI“灵魂”与宇树的机器人“躯体”虽技术先进,但缺乏关键的商业模式。文章分析了两者在硬件和软件领域的困境,并提出通过软硬一体化结合及明确商业模式,才能实现真正实用的智能机器人。未来,需聚焦高频刚需场景、优化付费体验、推动技术创新,让智能机器人走进千家万户。法思诺提供相关课程与咨询服务,助力行业突破。
141 0
|
6月前
|
传感器 机器学习/深度学习 人工智能
自己都站不稳,怎么护理人?智能机器人的自主平衡问题,用TRIZ和DeepSeek有解吗?
法思诺创新探讨机器人自主平衡难题,结合TRIZ创新理论与DeepSeek大模型,为仿人机器人动态平衡提供解决方案。文章分析了机器人平衡差的原因,包括复杂环境、传感器限制、算法难度和机械设计挑战等,并提出通过TRIZ原理(如矛盾识别、理想解)与DeepSeek的AI能力(如数据学习、强化学习)协同优化平衡性能。展望未来,2024-2028年将实现从实验室验证到家用场景落地,推动消费级人形机器人发展。
230 0
|
8月前
|
数据采集 人工智能 监控
Crawl4LLM:你的模型还在吃垃圾数据?CMU博士开源AI爬虫,自动筛选高价值网页,数据抓取质量飙升300%
Crawl4LLM 是清华大学和卡内基梅隆大学联合开发的智能爬虫系统,通过网页价值评估和优先级队列技术,显著提升大语言模型预训练数据采集效率。
388 4