Manus再遭复刻!开源多智能体协作工具,实时查看每个AI员工的"脑回路"

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: LangManus 是一个基于分层多智能体系统的 AI 自动化框架,支持多种语言模型和工具集成,能够高效完成复杂任务,适用于人力资源、房产决策、旅行规划等多个场景。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🤖 "打工人狂喜!这个AI框架把GPT变「数字团队」:程序员+研究员+策划一键组队干活!"

大家好,我是蚝油菜花。你是否也经历过——

  • 👉 查资料写代码来回切换,Alt+Tab按到键盘冒火星
  • 👉 调API搞到凌晨三点,结果发现参数文档是火星文
  • 👉 想用AI做复杂任务,ChatGPT却像金鱼只有7秒记忆...

今天要安利的 LangManus ,用分层多智能体架构重新定义AI协作!这个开源框架的神操作在于:

  • AI版「复仇者联盟」:规划员拆解任务+研究员全网搜资料+程序员写代码,智能体自动组队
  • 任务可视化看板:实时查看每个AI员工的"脑回路",再也不怕甩锅扯皮
  • 企业级私密部署:支持本地化部署,金融/医疗等敏感数据也能放心用

已有团队用它1小时搞定竞品分析报告+数据爬取+可视化代码,连周报都自动生成——你的数字员工军团已就位!

🚀 快速阅读

LangManus 是一个基于分层多智能体系统的 AI 自动化框架,支持多种语言模型和工具集成。

  1. 核心功能:多智能体协作、网络搜索、神经搜索、代码执行与生成、任务可视化与监控。
  2. 技术原理:通过分层多智能体系统架构,结合语言模型、神经搜索和网络搜索技术,实现复杂任务的高效执行。

LangManus 是什么

LangManus 是一个 AI 自动化框架,基于分层多智能体系统设计。它包含多种智能体,如协调员、规划员、研究员、程序员等,各司其职,协同完成复杂任务。框架支持多种开源语言模型,如通义千问,兼容 OpenAI API 接口,能根据任务复杂度灵活调用不同层级的模型:

langmanus-architecture

LangManus 具备强大的搜索和检索能力,通过 Tavily API 实现网络搜索,结合 Jina 进行神经搜索,高效提取和分析信息。此外,它还内置 Python 执行环境,支持代码生成和运行,适用于多种复杂任务场景。

LangManus 的主要功能

  • 多智能体协作:采用分层多智能体系统架构,不同智能体各司其职,协同完成任务。
    • 协调员:负责接收任务并分配给其他智能体。
    • 规划员:分析任务需求,制定执行策略。
    • 研究员:负责信息收集和分析,支持网络搜索和数据检索。
    • 程序员:生成和执行代码,支持复杂的编程任务。
    • 汇报员:生成任务执行报告,总结工作流程。
  • 网络搜索:通过 Tavily API 实现高效的网络搜索功能,能快速获取最新信息。
  • 神经搜索:使用 Jina 实现神经搜索,支持复杂的数据检索和分析。
  • 代码执行与生成:内置 Python 执行环境,支持代码生成和运行,适用于数据分析、自动化脚本等任务。
  • 任务可视化:通过工作流程图直观展示任务的执行过程和各智能体的协作关系。
  • 任务监控:实时监控任务的执行状态,确保任务顺利进行。
  • API 服务器:提供基于 FastAPI 的 API 服务器,支持流式响应,便于集成到其他系统中。
  • 灵活的配置:支持通过 .env 文件进行配置,用户可以根据需要设置语言模型的 API 密钥、搜索工具的参数等。

LangManus 的技术原理

  • 语言模型集成:支持多种语言模型,包括开源模型和闭源模型的 API 接口,根据任务复杂度自动选择合适的模型。
  • 任务管理与执行:通过工作流程图可视化任务的执行过程,实时监控任务状态,支持流式响应。
  • 数据处理与检索:集成神经搜索和网络搜索功能,通过 Jina 和 Tavily API 实现高效的数据检索,支持向量化的数据存储和检索。

如何运行 LangManus

🚀 快速开始

要运行 LangManus,请按照以下步骤操作:

1. 克隆仓库

首先,克隆 LangManus 的 GitHub 仓库到本地:

git clone https://github.com/langmanus/langmanus.git
cd langmanus

2. 安装依赖

LangManus 使用 uv 包管理器来处理依赖项。运行以下命令以安装必要的依赖项,并设置虚拟环境:

uv sync

接下来,安装 playwright 并配置 Chromium 浏览器:

uv run playwright install

3. 配置环境

.env.example 文件复制为 .env 文件,并根据需要填写 API 密钥:

cp .env.example .env

编辑 .env 文件,根据需要填写 API 密钥和相关环境变量。

4. 运行项目

完成上述配置后,使用以下命令运行项目:

uv run main.py

配置文件说明

LangManus 使用 .env 文件进行配置,主要包括以下内容:

# 理性推理 LLM 配置
REASONING_MODEL=your_reasoning_model
REASONING_API_KEY=your_reasoning_api_key

# 基础 LLM 配置
BASIC_MODEL=your_basic_model
BASIC_API_KEY=your_basic_api_key

# 视觉语言 LLM 配置
VL_MODEL=your_vl_model
VL_API_KEY=your_vl_api_key

# 工具 API 密钥
TAVILY_API_KEY=your_tavily_api_key
JINA_API_KEY=your_jina_api_key

您可以复制 .env.example 文件并根据需要修改。

运行 LangManus 的 API 服务器

LangManus 提供了一个基于 FastAPI 的 API 服务器,支持流式传输:

make serve

或者直接运行:

uv run server.py

API 服务器提供了以下端点:

  • POST /api/chat/stream:聊天端点,支持流式传输。
  • 请求体示例:
    {
         
    "messages": [{
          "role": "user", "content": "Your query here" }],
    "debug": false
    }
    

Docker 支持

LangManus 还支持通过 Docker 容器运行。构建并运行容器的命令如下:

docker build -t langmanus .
docker run --name langmanus -d --env-file .env -e CHROME_HEADLESS=True -p 8000:8000 langmanus

如果您只需要运行 CLI,可以使用以下命令:

docker run --rm -it --env-file .env -e CHROME_HEADLESS=True langmanus uv run python main.py

代码解释

  1. 初始化协调器Coordinator 是 LangManus 的入口点,负责任务的分配和执行。
  2. 定义任务:任务可以是任何需要语言模型和工具支持的复杂任务。
  3. 执行任务:调用 execute 方法,协调器会自动分配任务给合适的智能体。
  4. 输出结果:最终结果由 Reporter 智能体生成并返回。

如何运行 LangManus Web UI

LangManus Web UI 是 LangManus 项目的默认 Web 界面,旨在为社区驱动的 AI 自动化框架提供友好的用户交互体验。以下是如何在本地环境中运行 LangManus Web UI 的详细教程。

环境准备

在运行 LangManus Web UI 之前,需要确保以下工具和环境已安装:

  • LangManus:请参考LangManus的安装和运行指南。
  • Node.js:版本需为 v22.14.0 或更高。
  • pnpm:作为包管理工具,版本需为 v10.6.2 或更高。

配置环境变量

在项目根目录创建一个 .env 文件,并配置以下环境变量:

  • NEXT_PUBLIC_API_URL:LangManus API 的 URL。

建议从示例文件开始,并根据自己的配置修改 .env 文件:

cp .env.example .env

安装和运行 Web UI

重要提示:在运行 LangManus Web UI 之前,必须启动 LangManus 的 Python 服务端

以下是安装和运行 Web UI 的步骤:

1. 克隆代码仓库

git clone https://github.com/langmanus/langmanus-web.git
cd langmanus-web

2. 安装依赖

使用 pnpm 安装项目所需的依赖包:

pnpm install

3. 启动开发服务器

运行以下命令以启动开发模式:

pnpm dev

启动成功后,打开浏览器并访问 http://localhost:3000 即可使用 LangManus Web UI。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
3天前
|
人工智能 自然语言处理 数据可视化
让AI单次生成4万字!WriteHERE:开源AI长文写作框架,单次生成超长文本,小说报告一键搞定!
WriteHERE是基于异质递归规划技术的开源AI写作框架,能动态分解写作任务并管理任务依赖关系,支持单次生成超过4万字的专业报告。
46 1
让AI单次生成4万字!WriteHERE:开源AI长文写作框架,单次生成超长文本,小说报告一键搞定!
|
3天前
|
人工智能 编解码 算法
AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成
MAGI-1是Sand AI开源的全球首个自回归视频生成大模型,采用创新架构实现高分辨率流畅视频生成,支持无限扩展和精细控制,在物理行为预测方面表现突出。
104 1
AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成
|
3天前
|
人工智能 缓存 自然语言处理
全球首款开源通用型AI智能体上线!Suna:自动处理Excel/爬数据/写报告等复杂任务一句话搞定
Suna是由Kortix推出的开源通用型AI智能体项目,通过自然语言交互实现浏览器自动化、文件管理、数据分析等复杂任务处理,支持自托管部署,为研究分析和日常工作提供智能辅助。
158 1
全球首款开源通用型AI智能体上线!Suna:自动处理Excel/爬数据/写报告等复杂任务一句话搞定
|
2天前
|
机器学习/深度学习 人工智能 算法
高考理科题AI秒解!昆仑万维开源多模态推理模型 Skywork-R1V 2.0
Skywork-R1V 2.0是昆仑万维最新开源的多模态推理模型,通过混合强化学习和多模态奖励模型实现复杂推理任务,在理科题目解答和科研分析中展现出色性能。
54 11
高考理科题AI秒解!昆仑万维开源多模态推理模型 Skywork-R1V 2.0
|
1天前
|
人工智能 JSON 前端开发
分享一个非常实用的在线AI工具网站
在线工具网是一个包含AI工具、站长工具、开发人员工具、实用工具、AI助手,能够提供最新AI知识库、在线编码、正则表达式、加密解密、二维码生成、在线进制转换、JSON解析格式化、JavaScript、css、httml格式化/混淆/压缩、时间戳转换等免费在线AI工具平台。
71 34
|
2天前
|
人工智能 安全 Java
对比测评:为什么AI编程工具需要 Rules 能力?
AI规则引导模型生成更为精准、符合个人偏好或项目风格的代码与回答。
|
1天前
|
数据采集 人工智能 监控
40.8K star!让AI帮你读懂整个互联网:Crawl4AI开源爬虫工具深度解析
Crawl4AI 是2025年GitHub上备受瞩目的开源网络爬虫工具,专为AI时代设计。它不仅能抓取网页内容,还能理解页面语义结构,生成适配大语言模型的训练数据格式。上线半年获4万+星标,应用于1200+AI项目。其功能亮点包括智能内容提取引擎、AI就绪数据管道和企业级特性,支持动态页面处理、多语言识别及分布式部署。技术架构基于Python 3.10与Scrapy框架,性能卓越,适用于AI训练数据采集、行业情报监控等场景。相比Scrapy、BeautifulSoup等传统工具,Crawl4AI在动态页面支持、PDF解析和语义分块方面更具优势
40.8K star!让AI帮你读懂整个互联网:Crawl4AI开源爬虫工具深度解析
|
3天前
|
人工智能 自然语言处理 搜索推荐
Manus爆火,我发现平替开源项目OpenManus带你玩转AI智能体开发,无需邀请码!
在AI技术日新月异的今天,OpenManus像一把打开智能体开发大门的万能钥匙,让每个人都能轻松构建自己的AI助手!
|
11天前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
150 29
|
3天前
|
开发框架 人工智能 Java
破茧成蝶:传统J2EE应用无缝升级AI原生
本文探讨了技术挑战和解决方案,还提供了具体的实施步骤,旨在帮助企业顺利实现从传统应用到智能应用的过渡。
破茧成蝶:传统J2EE应用无缝升级AI原生

热门文章

最新文章

下一篇
oss创建bucket