使用Gradio快速搭建一个聊天机器人

简介: 使用Gradio快速搭建一个聊天机器人

Gradio 简介

如果对 Gradio 库不太了解的,可以先参考一下:Gradio快速入门

使用 Gradio 这个 Python 库来开发这个聊天机器人图形界面有如下几个好处:

  • 之前的的代码都是用 Python 实现的,不需要去学习前端相关框架了。
  • Gradio 渲染出来的界面可以直接在 Jupyter Notebook 里面显示出来。
  • 可以免费把 Gradio 的应用部署到 HuggingFace 上,特别方便我们的系统演示给其他人看。

三步完成图形界面开发

  1. 定义好了 system 这个系统角色的提示语,创建了一个 Conversation 对象。参考:
  2. 定义了一个 answer 方法,简单封装了一下 Conversation 的 ask 方法。主要是通过 history 维护了整个会话的历史记录。并且通过 responses,将用户和 AI 的对话分组。然后将它们两个作为函数的返回值。这个函数的签名是为了符合 Gradio 里 Chatbot 组件的函数签名的需求。
  3. 通过一段 with 代码,创建对应的聊天界面。Gradio 提供了一个现成的 Chatbot 组件,我们只需要调用它。

代码如下:

importgradioasgrprompt="""你是一个大数据和AI领域的专家,用中文回答大数据和AI的相关问题。你的回答需要满足以下要求:1. 你的回答必须是中文2. 回答限制在100个字以内"""conv=Conversation(prompt, 6)
defanswer(question, history=[]):
history.append(question)
message=conv.ask(question)
history.append(message)
responses= [(u,b) foru,binzip(history[::2], history[1::2])]
print(responses)
returnresponses, historywithgr.Blocks(css="#chatbot{height:300px} .overflow-y-auto{height:500px}") asrxbot:
chatbot=gr.Chatbot(elem_id="chatbot")
state=gr.State([])
withgr.Row():
txt=gr.Textbox(show_label=False, placeholder="请输入你的问题").style(container=False)
txt.submit(answer, [txt, state], [chatbot, state])
rxbot.launch()

部署到 HuggingFace

HuggingFace 简介

HuggingFace 的官方网站:https://huggingface.co 我们可以看到如下一些资源。

  • Datasets:数据集,以及数据集的下载地址
  • Models:各个预训练模型
  • Docs:文档
  • Spaces:发布的一些应用,这次就使用这个菜单进行程序部署

注册帐号

需要注册一个 HuggingFace 的账号,点击左上角的头像,然后点击 “+New Space” 创建一个新的项目空间。

创建 Space

在接下来,给 Space 取一个名字【1】,然后在 Select the Space SDK 里面,选择第二个 Gradio【2】。硬件选择免费的【3】,项目这里选择 public【4】,让其他人也能够看到。最后点击创建【5】。

发布代码

创建成功后,会跳转到 HuggingFace 的 App 界面。里面给了如何 Clone 当前的 space,然后提交代码部署 App 的方式。如下图:

按照上面的示例,需要通过 Git 把当前 space 下载下来,然后提交两个文件

  • app.py 包含了我们的 Gradio 应用;
  • requirements.txt 包含了这个应用依赖的 Python 包。

代码提交之后,HuggingFace 的页面会自动刷新

设置环境变量

代码里是通过环境变量获取 OpenAI 的 API Key 的,所以还要在这个 HuggingFace 的 Space 里设置一下这个环境变量。如下图:

设置完成之后,需要手动点击一下 Restart this space 确保这个应用重新加载一遍,以获取到新设置的环境变量。

效果体验

到此,再切换到 APP Tab,尝试下聊天机器人是否可以正常工作了,如下图:

遇到的问题

Q:提交问题后,界面上没有返回对话内容,通过查看日志,发现如下错误:

AttributeError("module 'openai' has no attribute 'ChatCompletion'"))]

A:解决方案

在 requirements.txt 中指定 openai 库的版本号

openai==0.27.0

Q:遇到访问限流的问题,日志如下:

A:解决方案

  1. 过会再试
  2. 通过使用 backoff 库,遇到 RateLimitError 的时候,按照指数级别增加等待时间,可以参考官网对限流的说明:https://platform.openai.com/docs/guides/rate-limits/overview

聊天APP分享到自己的网站上

导入代码

通过在站点中添加以下脚本将 gradioJS 库导入到站点中

<scripttype="module"src="https://gradio.s3-us-west-2.amazonaws.com/3.28.1/gradio.js"></script><gradio-appsrc="https://yezhiwei-chatbot.hf.space"></gradio-app>

获取方式

通过以下方式获取上面的代码,如下图:

集成效果

体验方式

访问 https://yezhwi.github.io/ 访问,进入二级页面(如:https://yezhwi.github.io/ai/2023/03/27/3%E5%88%86%E9%92%9F%E9%83%A8%E7%BD%B2ChatGPT%E6%9C%8D%E5%8A%A1%E7%AB%AF%E5%BA%94%E7%94%A8-%E9%99%84%E4%BB%A3%E7%A0%81/),拖到最下方,即可体验:


相关文章
|
22天前
|
机器学习/深度学习 人工智能 Go
【AI绘画】Gradio工具
【AI绘画】Gradio工具
76 1
|
22天前
|
机器学习/深度学习 JavaScript 前端开发
机器学习模型部署:使用Python和Vue搭建用户友好的预测界面
【4月更文挑战第10天】本文介绍了如何使用Python和Vue.js构建机器学习模型预测界面。Python作为机器学习的首选语言,结合Vue.js的前端框架,能有效部署模型并提供直观的预测服务。步骤包括:1) 使用Python训练模型并保存;2) 创建Python后端应用提供API接口;3) 利用Vue CLI构建前端项目;4) 设计Vue组件实现用户界面;5) 前后端交互通过HTTP请求;6) 优化用户体验;7) 全面测试并部署。这种技术组合为机器学习模型的实用化提供了高效解决方案,未来有望更加智能和个性化。
|
22天前
|
人工智能 自然语言处理 负载均衡
这款 AI 网关项目简直太棒了,轻松接入OpenAI、LLama2、Google Gem)ini等 100 多种大语言模型!
这款 AI 网关项目简直太棒了,轻松接入OpenAI、LLama2、Google Gem)ini等 100 多种大语言模型!
|
22天前
|
TensorFlow 网络安全 算法框架/工具
tensorflow的模型使用flask制作windows系统服务
tensorflow的模型使用flask制作windows系统服务
|
22天前
|
机器学习/深度学习 人工智能 算法
使用 ChatterBot 库制作一个聊天机器人
使用 ChatterBot 库制作一个聊天机器人
|
22天前
|
存储 人工智能 自然语言处理
利用Streamlit 和 Hugging Face 创建免费AI故事机
利用Streamlit 和 Hugging Face 创建免费AI故事机
97 0
|
10月前
|
存储 机器学习/深度学习 人工智能
LangChain + Streamlit + Llama:将对话式AI引入本地机器
在过去的几个月里,大型语言模型(LLM)获得了极大的关注,引起了全球开发人员的兴趣。这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员而言。LLM带来的可能性引发了开发人员的热情 |人工智能 |NLP社区。
494 0
|
10月前
|
安全 自然语言处理
Modelscope 中文竞技场大模型体验
Modelscope 中文竞技场大模型体验
179 0
|
11月前
|
机器学习/深度学习 人工智能 JSON
LangChain + ChatGLM2-6B 搭建个人专属知识库
之前教过大家利用 langchain + ChatGLM-6B 实现个人专属知识库,非常简单易上手。最近,智谱 AI 研发团队又推出了 ChatGLM 系列的新模型 ChatGLM2-6B,是开源中英双语对话模型 ChatGLM-6B 的第二代版本,性能更强悍。 树先生之所以现在才更新 ChatGLM2-6B 知识库教程,是想等模型本身再多迭代几个版本,不至于刚出的教程很快不适配,或者项目本身一堆 bug,那样大家使用体验也不好。
2524 3
|
12月前
|
存储 机器学习/深度学习 人工智能
本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama
在过去的几个月里,大型语言模型(llm)获得了极大的关注,这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员。
7057 1

热门文章

最新文章