【AI智能体】SuperAGI-开源AI Agent 管理平台

简介: 【4月更文挑战第9天】智能体管理平台SuperAGI简介及实践

开源自主人工智能代理框架。使开发人员能够快速可靠地构建、管理和运行有用的自主代理。

简介

开发优先的开源自主人工智能代理框架,使开发人员能够构建、管理和运行有用的自主代理。您可以无缝运行并发代理,使用工具扩展代理功能。代理有效地执行各种任务,并在每次后续运行中不断提高其性能。

核心能力:

  • 配置、生成和部署自主 AI 代理- 创建生产就绪且可扩展的自主代理。

  • 使用工具包扩展代理功能 - 将我们市场中的工具包添加到您的代理工作流程中。

  • 图形化的用户界面 - 通过图形用户界面访问您的代理。

  • 控制台交互 - 通过向代理提供输入和权限来与他们交互。

  • 支持向量数据库接入 - 连接到多个向量数据库以增强代理的性能。

  • Agent性能监测 - 深入了解代理的性能并进行相应优化。

  • 优化令牌使用策略 - 控制令牌使用以有效管理成本。

  • Agent记忆存储 - 使您的代理能够通过存储记忆来学习和适应。

  • 模型微调 - 针对特定业务用例的自定义微调模型。

  • 定制工作流程 - 使用 ReAct LLM 的预定义步骤轻松自动化任务。

一、SuperAGI 超市

1.工具箱

工具包允许SuperAGI代理与外部系统和第三方插件进行交互。工具列表如下:
image.png

安装流程:

  • 浏览市场:导航到 marketplace.superagi.com 并浏览所有可用的工具包。用户可以深入研究每个工具包的细节和功能。
  • 工具包选择:确定所需的工具包后,单击其列表以查看深入信息和安装选项。
  • 安装:单击与工具包关联的“安装”按钮。这将启动与代理的集成过程。
  • 确认:安装成功后,将显示一条确认消息,确认该工具包现在可供代理使用。

使用注意事项:

  • 工具包依赖关系:代理只能使用已安装的工具包中的工具。如果没有正确的安装,对这些工具的访问将受到限制。
  • 更新:定期检查市场以获取工具包更新以确保最佳性能和最新功能至关重要。
  • 卸载:如果不再需要工具包,用户可以通过市场界面从其代理的设置中卸载它。

2.代理模板

SuperAGI 代理模板市场为用户提供了经过 SuperAGI 预先批准的精选代理模板选择。每个模板都旨在解决特定的用例,确保用户为各种任务提供量身定制的起点。借助代理名称、描述、目标、说明、工具、代理类型和模型等预定义属性,这些模板可加快代理创建过程。
image.png

安装流程:

  • 探索市场:首先浏览 marketplace.superagi.com 以检查所有可用的代理模板。
  • 模板选择:确定合适的模板后,单击其列表以更深入地了解其详细信息和功能。
  • 安装:使用所选代理模板的“安装”选项。此操作将模板合并到SuperAGI接口中
  • 确认:安装后,用户将收到一条确认消息,指示模板已成功添加并准备好使用。

使用手册:

  • 创建新代理:导航到 SuperAGI 界面中的“创建代理”部分。
  • 选择模板:在“选择模板”部分中,用户现在可以找到最近安装的代理模板可供选择。
  • 模板自定义:选择模板后,用户可以选择根据其特定要求修改和定制代理的属性(如有必要)。

二、安装部署

您可以使用以下三种方法安装 superAGI。

1.使用云环境

要快速开始试验代理,而无需设置系统,请尝试 Superagi Cloud,地址:https: //app.superagi.com/

1)访问 Superagi Cloud 并使用您的 github 帐户登录。

2)在您的帐户设置中,转到“模型提供程序”并添加您的 API 密钥。

一切就绪!开始毫不费力地运行您的代理。

2.本地部署

1)克隆SuperAGI工程代码

git clone https://github.com/TransformerOptimus/SuperAGI.git

2)切换到工程目录,执行代码:

cd SuperAGI

3)复制config_template.yaml文件,重命名为config.yaml,

4)安装Docker环境,启动Docker服务

5)在SuperAGI 目录执行如下命令:

  • 常规用法
docker compose -f docker-compose.yaml up --build
  • 如果需要使用本地GPU
docker compose -f docker-compose-gpu.yml up --build

6)打开浏览器,输入:http://localhost:3000 进入SuperAGI

3.使用Digital Ocean

一键部署SuperAGI: Depoly to DigitalOcean

三、架构图

1.SuperAGI 架构图

image.png

2.Agent架构图

image.png

3.Agent流程图架构图

image.png

4.工具架构图

image.png

5.E-R图
image.png

四、Python SDK使用

SuperAGI 客户端库是一个 Python 库,它提供了一种与 SuperAGI API 交互的便捷方式。它允许开发人员使用 SuperAGI 框架轻松创建、管理和运行自治代理。

1.安装SDK

SuperAGI客户端库旨在帮助您与SuperAGI平台无缝交互。首先,首先安装库:

pip install superagi-client

安装完成之后,初始化SuperAGI-Client

from superagi_client import Client

client = Client(api_key="YOUR_API_KEY", url="YOUR_OPTIONAL_URL")

2.创建Agent

智能体是SuperAGI中执行任务的主要实体。要创建一个:

from superagi_client import AgentConfig

agent_config = AgentConfig(
    name="Sample Agent",
    description="A descriptive purpose of the agent.",
    goal=["Define a specific task for the agent"],
    instruction=["Provide additional guiding instructions"],
    agent_workflow="Goal Based Workflow",
    constraints=[],
    tools=[{"name": "ToolName"}],
    iteration_interval=500,
    max_iterations=10,
    model="gpt-4"
)

agent = client.create_agent(agent_config=agent_config)

3.运行Agent

agent_id = agent['agent_id']
run_agent = client.create_agent_run(agent_id=agent_id)

智能体启动成功之后,会返回一个执行ID:run_id

4.检查Agent

run_status = client.get_agent_run_status(agent_id=agent_id)

这将检索与指定agent_id关联的运行的状态。若要筛选特定的运行或状态,可以使用 AgentRunFilter 类型。例如,要获取具有特定run_ids的运行状态:

from superagi_client import AgentRunFilter

filter_config = AgentRunFilter(run_ids=[run_id_1, run_id_2])
run_status = client.get_agent_run_status(agent_id=agent_id, agent_run_filter=filter_config)

5.暂停Agent

client.pause_agent(agent_id=agent_id, agent_run_ids=[run_id])
client.resume_agent(agent_id=agent_id, agent_run_ids=[run_id])

小结

本节我们学习了SuperAGI,我们介绍了SuperAGI的工具箱及代理模板,SuperAGI支持三种部署方式,有条件的同学可以本地部署,同时我们学习了SuperAGI的架构图,方便大家对SuperAGI的运行逻辑有一个更深入的理解。最后我们通过Python SDK对SuperAGI进行了相关的操作。SuperAGI是一个专门为开发者设计的智能体开发平台,它支持开发人员构建、管理和运行智能体,对于人工智能开发者来说,SuperAGI是一个不可多得的好工具。

目录
相关文章
|
8天前
|
存储 人工智能 Serverless
AI 短剧遇上函数计算,一键搭建内容创意平台
为了帮助更多内容创作者和企业快速实现 AI 短剧创作,函数计算 FC 联合百炼联合推出“AI 剧本生成与动画创作解决方案”,通过函数计算 FC 构建 Web 服务,结合百炼模型服务和 ComfyUI 生图平台,实现从故事剧本撰写、插图设计、声音合成和字幕添加到视频合成的一站式自动化流程。创作者只需通过简单操作,就能快速生成高质量的剧本,并一键转化为精美的动画。
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
Baichuan-M1-14B:AI 助力医疗推理,为患者提供专业的建议!百川智能开源业内首个医疗增强大模型,普及医学的新渠道!
Baichuan-M1-14B 是百川智能推出的首个开源医疗增强大模型,专为医疗场景优化,支持多语言、快速推理,具备强大的医疗推理能力和通用能力。
68 16
Baichuan-M1-14B:AI 助力医疗推理,为患者提供专业的建议!百川智能开源业内首个医疗增强大模型,普及医学的新渠道!
|
8天前
|
存储 人工智能 自然语言处理
OmniThink:浙大联合阿里通义开源 AI 写作框架,基于深度思考扩展知识边界,实时展示思考过程
OmniThink 是浙江大学与阿里通义实验室联合开发的机器写作框架,通过模拟人类迭代扩展和反思过程,生成高质量长篇文章,显著提升知识密度和内容深度。
107 12
OmniThink:浙大联合阿里通义开源 AI 写作框架,基于深度思考扩展知识边界,实时展示思考过程
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
VideoWorld:字节开源自回归视频生成模型,支持输入视频指导AI生成视频!弥补文本生成视频的短板
VideoWorld 是由字节跳动、北京交通大学和中国科学技术大学联合推出的自回归视频生成模型,能够从未标注的视频数据中学习复杂知识,支持长期推理和规划任务。
89 8
VideoWorld:字节开源自回归视频生成模型,支持输入视频指导AI生成视频!弥补文本生成视频的短板
|
7天前
|
人工智能 测试技术 Python
VideoChat-Flash:上海AI Lab开源高效处理超长视频的多模态大模型
VideoChat-Flash 是上海人工智能实验室等机构推出的多模态大模型,通过分层压缩技术高效处理长视频,支持长达数小时的视频输入,推理速度提升5-10倍。
36 1
VideoChat-Flash:上海AI Lab开源高效处理超长视频的多模态大模型
|
5天前
|
人工智能 自然语言处理 JavaScript
微软开源课程!21节课程教你开发生成式 AI 应用所需了解的一切
微软推出的生成式 AI 入门课程,涵盖 21 节课程,帮助开发者快速掌握生成式 AI 应用开发,支持 Python 和 TypeScript 代码示例。
103 14
|
3天前
|
人工智能 开发者 Python
Chainlit:一个开源的异步Python框架,快速构建生产级对话式 AI 应用
Chainlit 是一个开源的异步 Python 框架,帮助开发者在几分钟内构建可扩展的对话式 AI 或代理应用,支持多种工具和服务集成。
33 9
|
15天前
|
人工智能 运维 物联网
云大使 X 函数计算 FC 专属活动上线!享返佣,一键打造 AI 应用
如今,AI 技术已经成为推动业务创新和增长的重要力量。但对于许多企业和开发者来说,如何高效、便捷地部署和管理 AI 应用仍然是一个挑战。阿里云函数计算 FC 以其免运维的特点,大大降低了 AI 应用部署的复杂性。用户无需担心底层资源的管理和运维问题,可以专注于应用的创新和开发,并且用户可以通过一键部署功能,迅速将 AI 大模型部署到云端,实现快速上线和迭代。函数计算目前推出了多种规格的云资源优惠套餐,用户可以根据实际需求灵活选择。
|
11天前
|
人工智能 算法 前端开发
OmAgent:轻松构建在终端设备上运行的 AI 应用,赋能手机、穿戴设备、摄像头等多种设备
OmAgent 是 Om AI 与浙江大学联合开源的多模态语言代理框架,支持多设备连接、高效模型集成,助力开发者快速构建复杂的多模态代理应用。
145 72
OmAgent:轻松构建在终端设备上运行的 AI 应用,赋能手机、穿戴设备、摄像头等多种设备
|
23天前
|
机器学习/深度学习 人工智能 算法
AI在体育分析与预测中的深度应用:变革体育界的智能力量
AI在体育分析与预测中的深度应用:变革体育界的智能力量
106 31