AIGC-知识库-LLM:从0开始搭建智能问答钉钉机器人

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: 本文描述在阿里云上从0开始构建个人/企业专属,具备私域知识库+LLM智能问答钉钉机器人。知识库技术方案使用了Lindorm AI数据服务平台知识库能力,LLM使用了开源ChatGLM2-6B。

一、开通和配置ECS

1、 创建ECS实例(以Ubuntu系统为例),作为登录数据库的客户端。设置ECS用户名及登录密码(使用ecs-user登录,如果使用root安装,后续部分安装包会提示有权限风险)。

2、 设置安全组配置,配置出方向端口22,并在源IP中加入本机IP

image.png

3、 本机ssh到云ECS

 

二、构建自己的知识库+LLM

1、 根据产品指导书,开通Lindorm知识库+LLM实例,并根据指导书导入或SQL方式写入自己的知识文档,完成知识库的构建。该方案安装部署LLM非常简便,仅需一条简单的SQL命令即可完成安装。

2、 ECS客户端IP加入到Lindorm数据库白名单,确保ECS可以正常访问Lindorm数据库。可以在ECS上安装Lindorm CLI客户端进行测试。

3、 ECS上安装phoenixdb(用于连接数据库):pip install phoenixdb==1.2.0

注意:有些系统版本在安装时,可能会报错“subprocess.CalledProcessError: Command 'krb5-config --libs gssapi' returned non-zero exit status 127”,原因是缺乏安装依赖,需执行如下命令后再安装:sudo apt-get -y install gcc libkrb5-dev

 

三、申请钉钉机器人

1、 在钉钉上申请钉钉机器人:选择一个群,点击右上角的“群设置”按钮,选择“机器人”进行添加。

image.png

 

2、 根据文档说明,完成机器人申请:

image.png

3、 机器人申请成功后,完成基础设置。其中消息接受模式选择“HTTP模式”;配置消息接受地址:将IP设置为前面申请的ECS大网IP,服务端口号设置为自定义好的端口号(本文以5000为例,后面的钉钉post程序中也需配置为该端口)。

image.png

 

四、编写钉钉机器人post程序

说明:该程序运行在ECS上,用于响应钉钉机器人从钉钉上获取的信息,进行应答。

1、 ECS上安装dingtalkchatbotfastapiuvicornpip install dingtalkchatbot fastapi uvicorn

2、 编写钉钉机器人服务端程序(Python脚本),示例:

#!/bin/python3# -*- coding: utf-8 -*-importosfromfastapiimportFastAPI, Requestfromdingtalkchatbot.chatbotimportDingtalkChatbotimportuvicornimportjsonimportloggingimportphoenixdbfromconfigs.dingtalk4lindormimport*# global env:如下配置正式使用时请放在单独的配置文件中,如:dingtalk4lindorm# 这里的链接地址与lindorm-cli的链接地址比,需要去掉http之前的字符串#LINDORM_URL = "http://ld-XXXX-proxy-lindorm-pub.lindorm.rds.aliyuncs.com:30060"#LINDORM_USER_NAME = 'XXXX'#LINDORM_USER_PW = 'XXXX'#LLM_MODEL = 'XXXX'# 连接到lindorm数据库defconnect(kw_args):
try:
returnphoenixdb.connect(LINDORM_URL, autocommit=True, **kw_args)
exceptAttributeError:
print("Failed to connect")
# logerlogging.basicConfig(level=logging.DEBUG,
format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',
datefmt='%a, %d %b %Y %H:%M:%S',
filename='/tmp/test.log',
filemode='w')
logger=logging.getLogger(__name__)
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(name)s - %(levelname)s - %(message)s')
# init FastAPI appapp=FastAPI()
# 使用FastAPI的装饰器定义路由@app.post("/generate")
asyncdefgenerate_response(request: Request):
# 读取请求的JSON数据json_post_raw=awaitrequest.json()
json_post=json.dumps(json_post_raw)
json_post_list=json.loads(json_post)
# 获取请求中的输入文本和会话Webhookprompt=json_post_list.get('text').get('content')
session_webhook=json_post_list.get('sessionWebhook')
logger.info("prompt: %s, session webhook is: %s "% (prompt, session_webhook))
print(session_webhook)
# 连接Lindorm数据库,调用AI数据服务平台SQL查询接口,获取Lindorm知识库问答结果# 用户名通过lindorm_user字段传递,密码使用lindorm_password字段设置,database字段设置连接初始化默认数据库。connect_kw_args= {'lindorm_user': LINDORM_USER_NAME, 'lindorm_password': LINDORM_USER_PW, 'database': 'default'}
connection=connect(connect_kw_args)
msg=""withconnection.cursor() asstatement:
# 查询sql_select="select ai_infer('%s', '%s')"% (LLM_MODEL , prompt)
# print(sql_select)statement.execute(sql_select)
response=statement.fetchall()
msg=response[0][0]      #查询返回是list格式,需要取list[0][0],转换为str格式# print("LLM response:", msg)logger.info("LLM return: %s"%msg)
connection.close()
# 实例化钉钉机器人对象dingtalk_chatbot=DingtalkChatbot(session_webhook)
returndingtalk_chatbot.send_markdown(title='数据库百事通', text=msg)
# 启动FastAPI应用if__name__=='__main__':
uvicorn.run(app, host='0.0.0.0', port=5000, workers=1)

代码详解:

Lindorm提供了类JDBC的连接和使用方式,使用起来非常简便。对于知识库和LLM的调用,直接使用SQL查询方式即可返回LLM的问答结果,将返回的内容进行格式化整理即可:

sql_select = "select ai_infer('%s', '%s')" % (LLM_MODEL , prompt)

statement.execute(sql_select)

response = statement.fetchall()

msg = response[0][0]      #查询返回是list格式,需要取list[0][0],转换为str格式


3、 配置服务端口(本文设置为5000,见上述代码。也可以自定义端口,注意和钉钉机器人配置以及代码中保持一致),配置安全组,放通入方向IP。初始调试的时候,可以配置为0.0.0.0/0,以免因为网络配置导致程序不通。调测成功后再修改为钉钉机器人服务器对应的IP(见步骤5)

image.png

4、 运行脚本:nohup python3 dingtalkpost.py &

5、安全组入方向IP获取方法:上述步骤使用nohup方式运行脚本后,会在该脚本所在目录下生成一个“nohup.out”日志文件,该文件内会记录调用钉钉机器人的源端IP,比如:

INFO:     59.82.84.108:15922 - "POST /generate HTTP/1.1" 200 OK

持续使用一段时间后,通过分析该日志文件中的源端IP,即可获取到调用钉钉机器人的IP信息,从而配置安全组。如上示例,可配置59.82.0.0/16,见:

image.png


五、效果展示

在钉钉群中添加所申请的机器人,并@该机器人进行智能问答。则可以回答涉及私域知识的问题。

image.png

六、必薅羊毛

对于喜欢研究学习LLM、AIGC、知识库、智能问答、文生图等方面的爱好者,或想借助AIGC能力用于工作、学习中的人,发现阿里云最近有系列AIGC相关的优惠活动推出。


在此推荐一个智能问答、文生图相关的AIGC优惠活动:秒级开通,仅60元/月,即刻畅享私域知识库+LLM智能问答系统。该系统可以直接玩开源LLM、还可以上传自己的私域文档构建自己的知识库,文生图应用貌似也要上线了。


新用户首次开通还可获得100元猫超卡奖励,目前该奖励活动还在有效期内,手慢无。

活动链接:https://www.aliyun.com/activity/ambassador/Lindorm


开通后,即刻就能使用,界面截图:

image.png


附录

钉钉post程序示例:

https://code.alibaba-inc.com/pangshaoting.pst/PST/blob/master/dingtalk4lindorm.py

 

参考:

https://code.alibaba-inc.com/yeyan.wy/langchain-ChatGLM-dingdingbot/blob/master/dingbot.py

https://help.aliyun.com/document_detail/261165.html

https://help.aliyun.com/document_detail/2401799.html

相关实践学习
通义万相文本绘图与人像美化
本解决方案展示了如何利用自研的通义万相AIGC技术在Web服务中实现先进的图像生成。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
28天前
|
机器学习/深度学习 人工智能 索引
RAG 切片利器 LumberChunker 是如何智能地把文档切割成 LLM 爱吃的块
RAG 里的文档应该怎么切割比较好呢?按固定的字符数或词数?按句?按段落?加个重叠窗口?还是 ...
128 1
RAG 切片利器 LumberChunker 是如何智能地把文档切割成 LLM 爱吃的块
|
2月前
|
机器学习/深度学习 人工智能 前端开发
解决推理能力瓶颈,用因果推理提升LLM智能决策
从ChatGPT到AI智能体,标志着AI从对话走向自主执行复杂任务的能力跃迁。AI智能体可完成销售、旅行规划、外卖点餐等多场景任务,但其发展受限于大语言模型(LLM)的推理能力。LLM依赖统计相关性,缺乏对因果关系的理解,导致在非确定性任务中表现不佳。结合因果推理与内省机制,有望突破当前AI智能体的推理瓶颈,提升其决策准确性与自主性。
257 6
解决推理能力瓶颈,用因果推理提升LLM智能决策
|
6月前
|
人工智能 安全 API
不到100行代码,实现一个简易通用智能LLM Agent
本文将分享如何使用不到 100 行的 Python 代码,实现一个具备通用智能潜力的简易 LLM Agent。你将看到整个实现过程——从核心原理、提示(Prompt)调优、工具接口设计到主循环交互,并获得完整复现代码的详细讲解。
1303 101
不到100行代码,实现一个简易通用智能LLM Agent
|
1月前
|
人工智能 自然语言处理 监控
05_用LLM创建知识库:从文档到智能问答系统
在2025年,随着大语言模型(LLM)技术的飞速发展,如何让这些强大的模型更好地理解和应用企业或个人的专业知识,成为了一个重要课题。传统的LLM虽然知识渊博,但在面对特定领域的专业问题时,常常会出现"一本正经地胡说八道"的情况。而检索增强生成(Retrieval-Augmented Generation,简称RAG)技术的出现,为这一问题提供了完美解决方案。
|
2月前
|
人工智能 自然语言处理 数据可视化
手把手教你用LLM图转换器构建知识图谱:从文本到知识的智能转换
本文介绍如何利用大型语言模型(LLM)自动化构建知识图谱,涵盖核心技术、实现方法、优化策略及多领域应用,助力从非结构化文本中高效提取结构化知识。
|
机器学习/深度学习 人工智能 自然语言处理
LLM群体智能崛起,数学性能暴增11.6%!谷歌DeepMind四大机构联手新作
【10月更文挑战第17天】近日,谷歌、DeepMind等四大机构联合发布论文,展示大型语言模型(LLMs)在数学问题解决上的显著进步。通过引入元认知知识,研究人员开发了提示引导的交互程序,使LLMs能为数学问题分配合理技能标签并进行语义聚类。实验结果显示,GPT-4在GSM8K和MATH数据集上的准确性分别提升了11.6%和7.52%,展现出巨大潜力。这一成果不仅为AI领域提供了新思路,也为数学教育带来了启示。
197 4
|
7月前
|
人工智能 中间件 程序员
LLM 不断提升智能下限,MCP 不断提升创意上限
LLM 是大脑,MCP 是手脚。LLM 不断提升智能下限,MCP 不断提升创意上限。所有的应用和软件都会被 AI 改造,将向所有的应用和软件都会被 MCP 改造的新范式演进。
576 24
|
8月前
|
存储 人工智能 自然语言处理
知识库管理:全流程智能化中枢,驱动企业信息资产高效流转
智能系统的知识库管理技术可以深度融合AI技术与精细化流程控制,提供从内容创建到版本追溯的全生命周期管理。支持多模态数据统一存储(文本、语音、图像等),实现自动化审核、智能分类与语义检索,确保企业知识资产的安全存储与高效利用,助力业务持续优化。核心功能包括多角色协作编辑、动态标签管理、历史版本追溯及毫秒级语义检索,大幅提升信息管理效率与准确性。
378 9
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
PeterCat:一键创建开源项目 AI 问答机器人,自动抓取 GitHub 仓库信息、文档和 issue 等构建知识库
PeterCat 是一款开源的智能答疑机器人,能够自动抓取 GitHub 上的文档和 issue 构建知识库,提供对话式答疑服务,帮助开发者和社区维护者高效解决技术问题。
708 7
PeterCat:一键创建开源项目 AI 问答机器人,自动抓取 GitHub 仓库信息、文档和 issue 等构建知识库
|
机器学习/深度学习 人工智能 自然语言处理
LLM群体智能崛起,数学性能暴增11.6%!谷歌DeepMind四大机构联手新作
【10月更文挑战第16天】最新研究显示,大型语言模型(LLMs)在数学问题解决上取得显著进展。谷歌、DeepMind等机构的研究人员通过引入元认知知识,使LLMs能更好地理解和解决数学问题,其在GSM8K和MATH数据集上的准确率分别提升了11.6%和7.52%。这一成果不仅为AI领域开辟了新路径,也为数学教育带来了新的可能性。
188 3