最近一直在说AutoGPT,有很多的视频介绍,但是本着收藏等于学会的原则,收藏一堆一直没看。
这里用一句话说明白:AutoGPT就是一个用Python套装的壳子,用来更省事的调用OpenAI的API。(如果你不明白API,没关系,更直白的表达是:更省事的想OpenAI的Url网址发送数据,并接收返回内容)。
好了,到此为止,你只想了解它是什么的话,可以退出去了。
接下来是详细说明:
AutoGPT是什么
AutoGPT 是基于 GPT(Generative Pre-trained Transformer)的自动文本生成模型,它是由 OpenAI 开发的一种大型语言模型。AutoGPT 是一个预先训练好的模型,通过学习海量的自然语言数据,可以生成高质量的自然语言文本,包括文章、对话、摘要等。它能够理解自然语言的含义和上下文,并能够在给定一些文本或任务时产生连贯、流畅的输出。此外,AutoGPT 还能够进行任务特定的微调,以进一步提高其生成文本的质量和准确性。
AutoGPT 和 ChatGPT的区别是什么
AutoGPT 和 ChatGPT 都是基于 GPT 的自然语言处理模型,但它们的主要区别在于其应用场景和训练数据集的不同。
ChatGPT 是专门用于对话生成的模型,它的训练数据集主要来自对话语料库。它被设计成能够理解用户输入的含义和上下文,并根据这些信息产生连贯、流畅的回复。因此,ChatGPT 在生成对话时非常有效,并且能够适应各种对话情境和主题。
相比之下,AutoGPT 更加通用,它可以用于各种自然语言生成任务,例如文章摘要、机器翻译和文本分类等。它的训练数据集来自多个领域和来源,使其能够了解更广泛的自然语言表达方式和风格。因此,AutoGPT 在生成各种类型的文本时都表现出色,并且能够生成高质量、流畅的输出。
总而言之,ChatGPT 和 AutoGPT 都是基于 GPT 的自然语言处理模型,但它们的训练数据集和应用场景不同。ChatGPT 专注于对话生成,而 AutoGPT 则有更广泛的应用范围。
实操部署
需要先说明的内容
- AutoGPT是以目的至上的,因此存在一种隐患:当我给它的资源不足以支撑它完成当前目标时,它将自动覆盖现有内容。即:本地文件可能出现毁损。
本地部署有不方便移动携带的问题,对于不是很高安全性考虑的情景下,云端部署是更好的选择。明确以上内容之后,介绍云端部署方式。
- 部署方式:GitPod。
- 部署操作:
1.将AutoGPT项目 Fork 到自己的项目库中
2.
在自己的项目库中新建好的分支目录下 修改 网址内容:将github.com 部分改为 gitpod.io/#修改后回车。比如我的是地址:https://github.com/Alex-zry-2333/Auto-GP ,改成 https://gitpod.io/#/Alex-zry-2333/Auto-GP ,然后访问,现在就可以一键用 GitPod 来部署项目了!
3.进入到新建目录选择云端vscode。
完成创建。
3.准备操作:
我们进入到了 GitPod 项目主页,大家现在就可以把这个网页当做自己的电脑(服务器)来使用了,比如使用 VS Code 编辑器。
进到这个页面后,第一件事是切换分支,一定要选择 origin/stable 分支!否则后面说不定遇到什么奇奇怪怪的 Bug。
3.然后,我们在左侧目录中找到 .env.template 文件,右键修改文件名为 .env ,并且修改 OPEN_API_KEY 为自己的。
因为 Auto-GPT 底层也是向 OpenAI 提问的,所以必须要有 OpenAI 的 key。
1.运行操作
修改完成后,在终端中输入 ./run.sh 命令,就会自动安装所需环境和依赖,等着就好。看到下图中的消息,就表示安装成功了!
上图中,有几个参数是需要额外关注的,比如:
-c:是否开启连续模式。这是一个非常危险的命令!表示 autogpt 会不经过你的同意全自动执行,包括但不限于死循环、无限创建文件、占满空间后删除你电脑上的文件等等。就和人类一样:可能会为了达到目的不择手段!
-l:指定连续执行的次数限制。可以防止死循环。
–speak:开启语音模式。但不是说在浏览器内部播放声音,而是生成音频文件。
实际操作:
让 autogpt 做一个hiredis的知识点手册用md文件展示。
首先执行 python -m autogpt 命令,然后依次输入 AI 名称、AI 角色和目标,等待它执行。
最特色的是它会向我反馈它将要做的事情和对我命令的理解。这将极大的缩减沟通的成本。