Manus再遭复刻!开源多智能体协作工具,实时查看每个AI员工的"脑回路"

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: LangManus 是一个基于分层多智能体系统的 AI 自动化框架,支持多种语言模型和工具集成,能够高效完成复杂任务,适用于人力资源、房产决策、旅行规划等多个场景。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🤖 "打工人狂喜!这个AI框架把GPT变「数字团队」:程序员+研究员+策划一键组队干活!"

大家好,我是蚝油菜花。你是否也经历过——

  • 👉 查资料写代码来回切换,Alt+Tab按到键盘冒火星
  • 👉 调API搞到凌晨三点,结果发现参数文档是火星文
  • 👉 想用AI做复杂任务,ChatGPT却像金鱼只有7秒记忆...

今天要安利的 LangManus ,用分层多智能体架构重新定义AI协作!这个开源框架的神操作在于:

  • AI版「复仇者联盟」:规划员拆解任务+研究员全网搜资料+程序员写代码,智能体自动组队
  • 任务可视化看板:实时查看每个AI员工的"脑回路",再也不怕甩锅扯皮
  • 企业级私密部署:支持本地化部署,金融/医疗等敏感数据也能放心用

已有团队用它1小时搞定竞品分析报告+数据爬取+可视化代码,连周报都自动生成——你的数字员工军团已就位!

🚀 快速阅读

LangManus 是一个基于分层多智能体系统的 AI 自动化框架,支持多种语言模型和工具集成。

  1. 核心功能:多智能体协作、网络搜索、神经搜索、代码执行与生成、任务可视化与监控。
  2. 技术原理:通过分层多智能体系统架构,结合语言模型、神经搜索和网络搜索技术,实现复杂任务的高效执行。

LangManus 是什么

LangManus 是一个 AI 自动化框架,基于分层多智能体系统设计。它包含多种智能体,如协调员、规划员、研究员、程序员等,各司其职,协同完成复杂任务。框架支持多种开源语言模型,如通义千问,兼容 OpenAI API 接口,能根据任务复杂度灵活调用不同层级的模型:

langmanus-architecture

LangManus 具备强大的搜索和检索能力,通过 Tavily API 实现网络搜索,结合 Jina 进行神经搜索,高效提取和分析信息。此外,它还内置 Python 执行环境,支持代码生成和运行,适用于多种复杂任务场景。

LangManus 的主要功能

  • 多智能体协作:采用分层多智能体系统架构,不同智能体各司其职,协同完成任务。
    • 协调员:负责接收任务并分配给其他智能体。
    • 规划员:分析任务需求,制定执行策略。
    • 研究员:负责信息收集和分析,支持网络搜索和数据检索。
    • 程序员:生成和执行代码,支持复杂的编程任务。
    • 汇报员:生成任务执行报告,总结工作流程。
  • 网络搜索:通过 Tavily API 实现高效的网络搜索功能,能快速获取最新信息。
  • 神经搜索:使用 Jina 实现神经搜索,支持复杂的数据检索和分析。
  • 代码执行与生成:内置 Python 执行环境,支持代码生成和运行,适用于数据分析、自动化脚本等任务。
  • 任务可视化:通过工作流程图直观展示任务的执行过程和各智能体的协作关系。
  • 任务监控:实时监控任务的执行状态,确保任务顺利进行。
  • API 服务器:提供基于 FastAPI 的 API 服务器,支持流式响应,便于集成到其他系统中。
  • 灵活的配置:支持通过 .env 文件进行配置,用户可以根据需要设置语言模型的 API 密钥、搜索工具的参数等。

LangManus 的技术原理

  • 语言模型集成:支持多种语言模型,包括开源模型和闭源模型的 API 接口,根据任务复杂度自动选择合适的模型。
  • 任务管理与执行:通过工作流程图可视化任务的执行过程,实时监控任务状态,支持流式响应。
  • 数据处理与检索:集成神经搜索和网络搜索功能,通过 Jina 和 Tavily API 实现高效的数据检索,支持向量化的数据存储和检索。

如何运行 LangManus

🚀 快速开始

要运行 LangManus,请按照以下步骤操作:

1. 克隆仓库

首先,克隆 LangManus 的 GitHub 仓库到本地:

git clone https://github.com/langmanus/langmanus.git
cd langmanus
AI 代码解读

2. 安装依赖

LangManus 使用 uv 包管理器来处理依赖项。运行以下命令以安装必要的依赖项,并设置虚拟环境:

uv sync
AI 代码解读

接下来,安装 playwright 并配置 Chromium 浏览器:

uv run playwright install
AI 代码解读

3. 配置环境

.env.example 文件复制为 .env 文件,并根据需要填写 API 密钥:

cp .env.example .env
AI 代码解读

编辑 .env 文件,根据需要填写 API 密钥和相关环境变量。

4. 运行项目

完成上述配置后,使用以下命令运行项目:

uv run main.py
AI 代码解读

配置文件说明

LangManus 使用 .env 文件进行配置,主要包括以下内容:

# 理性推理 LLM 配置
REASONING_MODEL=your_reasoning_model
REASONING_API_KEY=your_reasoning_api_key

# 基础 LLM 配置
BASIC_MODEL=your_basic_model
BASIC_API_KEY=your_basic_api_key

# 视觉语言 LLM 配置
VL_MODEL=your_vl_model
VL_API_KEY=your_vl_api_key

# 工具 API 密钥
TAVILY_API_KEY=your_tavily_api_key
JINA_API_KEY=your_jina_api_key
AI 代码解读

您可以复制 .env.example 文件并根据需要修改。

运行 LangManus 的 API 服务器

LangManus 提供了一个基于 FastAPI 的 API 服务器,支持流式传输:

make serve
AI 代码解读

或者直接运行:

uv run server.py
AI 代码解读

API 服务器提供了以下端点:

  • POST /api/chat/stream:聊天端点,支持流式传输。
  • 请求体示例:
    {
         
    "messages": [{
          "role": "user", "content": "Your query here" }],
    "debug": false
    }
    
    AI 代码解读

Docker 支持

LangManus 还支持通过 Docker 容器运行。构建并运行容器的命令如下:

docker build -t langmanus .
docker run --name langmanus -d --env-file .env -e CHROME_HEADLESS=True -p 8000:8000 langmanus
AI 代码解读

如果您只需要运行 CLI,可以使用以下命令:

docker run --rm -it --env-file .env -e CHROME_HEADLESS=True langmanus uv run python main.py
AI 代码解读

代码解释

  1. 初始化协调器Coordinator 是 LangManus 的入口点,负责任务的分配和执行。
  2. 定义任务:任务可以是任何需要语言模型和工具支持的复杂任务。
  3. 执行任务:调用 execute 方法,协调器会自动分配任务给合适的智能体。
  4. 输出结果:最终结果由 Reporter 智能体生成并返回。

如何运行 LangManus Web UI

LangManus Web UI 是 LangManus 项目的默认 Web 界面,旨在为社区驱动的 AI 自动化框架提供友好的用户交互体验。以下是如何在本地环境中运行 LangManus Web UI 的详细教程。

环境准备

在运行 LangManus Web UI 之前,需要确保以下工具和环境已安装:

  • LangManus:请参考LangManus的安装和运行指南。
  • Node.js:版本需为 v22.14.0 或更高。
  • pnpm:作为包管理工具,版本需为 v10.6.2 或更高。

配置环境变量

在项目根目录创建一个 .env 文件,并配置以下环境变量:

  • NEXT_PUBLIC_API_URL:LangManus API 的 URL。

建议从示例文件开始,并根据自己的配置修改 .env 文件:

cp .env.example .env
AI 代码解读

安装和运行 Web UI

重要提示:在运行 LangManus Web UI 之前,必须启动 LangManus 的 Python 服务端

以下是安装和运行 Web UI 的步骤:

1. 克隆代码仓库

git clone https://github.com/langmanus/langmanus-web.git
cd langmanus-web
AI 代码解读

2. 安装依赖

使用 pnpm 安装项目所需的依赖包:

pnpm install
AI 代码解读

3. 启动开发服务器

运行以下命令以启动开发模式:

pnpm dev
AI 代码解读

启动成功后,打开浏览器并访问 http://localhost:3000 即可使用 LangManus Web UI。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

目录
打赏
0
0
0
0
340
分享
相关文章
Cursor 上线最新 AI 模型 Claude 3.7 Max:200k上下文+200次工具调用!史上最强代码助手硬核上线
Claude 3.7 Max 是 Cursor 推出的最新 AI 模型,支持 200k 上下文窗口和 200 次工具调用,专为复杂代码任务设计,适合硬核开发者和大型项目。
106 6
Cursor 上线最新 AI 模型 Claude 3.7 Max:200k上下文+200次工具调用!史上最强代码助手硬核上线
OpenBioMed:开源生物医学AI革命!20+工具链破解药物研发「死亡谷」
OpenBioMed 是清华大学智能产业研究院(AIR)和水木分子共同推出的开源平台,专注于 AI 驱动的生物医学研究,提供多模态数据处理、丰富的预训练模型和多样化的计算工具,助力药物研发、精准医疗和多模态理解。
32 1
OpenBioMed:开源生物医学AI革命!20+工具链破解药物研发「死亡谷」
AI和开源时代的计算机课程建设和改革建议
人工智能与开源技术正深刻影响高校计算机教育。通过构建“AI+开源”驱动的课程体系,深化专业课AI融合,强化跨学科项目学习,可培养复合型人才。同时,打造开源实验平台、推广智能教学模式、共建产教融合生态,并加强AI伦理教育,将推动教育数字化转型。Websoft9等工具为连接理论与实践提供支持,助力高校培养适应未来的技术人才。
1.4K star!几分钟搞定AI视频创作,这个开源神器让故事可视化如此简单!
story-flicks 是一个基于AI技术的自动化视频生成工具,能够将文字剧本快速转化为高质量短视频。开发者@alecm20通过深度学习算法,实现了从文本解析到视频合成的全流程自动化处理,支持多平台适配输出,是内容创作者和自媒体运营者的效率神器。
从大数据到ET大脑-阿里云的超智能AI平台
首先声明本座并不是阿里粉丝,一直认为阿里的服务框架Dubbo跟Netflix的Spring Cloud相比,无论从社区成熟度还是功能组件上相比都差了一大截。 但就在刚刚过去的618年中大促中,阿里硬是将这个京东成立日变成了自己在上半年的购物狂欢节。
1853 0
Java也能快速搭建AI应用?一文带你玩转Spring AI可落地性
Java语言凭借其成熟的生态与解决方案,特别是通过 Spring AI 框架,正迅速成为 AI 应用开发的新选择。本文将探讨如何利用 Spring AI Alibaba 构建在线聊天 AI 应用,并实现对其性能的全面可观测性。
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
986 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
AI程序员:通义灵码 2.0应用VScode前端开发深度体验
AI程序员:通义灵码 2.0应用VScode前端开发深度体验,在软件开发领域,人工智能技术的融入正深刻改变着程序员的工作方式。通义灵码 2.0 作为一款先进的 AI 编程助手,与广受欢迎的代码编辑器 Visual Studio Code(VScode)相结合,为前端开发带来了全新的可能性。本文将详细分享通义灵码 2.0 在 VScode 前端开发环境中的深度使用体验。
136 2
牛逼,这款开源聊天应用竟能一键召唤多个AI助手,跨平台通话神器!
`JiwuChat`是一款基于Tauri2和Nuxt3构建的轻量化多平台即时通讯工具,仅约8MB体积却集成了**AI群聊机器人**、**WebRTC音视频通话**、**屏幕共享**等前沿功能。一套代码适配Windows/macOS/Linux/Android/iOS/Web六大平台,堪称开发者学习跨端开发的绝佳样板!
一键轻松打造你的专属AI应用!
函数计算提供免运维、Serverless GPU,具备极致弹性与按量付费优势,助您一键部署AI大模型,加速业务创新。

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等