使用LangGraph构建多Agent系统架构!

简介: 【10月更文挑战第7天】

一个代理(agent)是一个使用大语言模型(LLM)来决定应用程序控制流的系统。随着这些系统的开发,它们可能会随着时间的推移变得更加复杂,使得管理和扩展变得更加困难。例如,您可能会遇到以下问题:

  • 代理拥有太多的工具可供使用,并且对于接下来应该调用哪个工具做出糟糕的决策;
  • 上下文变得过于复杂,以至于单个代理无法跟踪;
  • 系统中需要多个专业领域(例如规划者、研究员、数学专家等)。

为了解决这些问题,您可能会考虑将应用程序拆分成多个更小、独立的代理,并将它们组合成一个多代理系统。这些独立的代理可以简单到一个提示和一个LLM调用,或者复杂到像一个ReAct代理(甚至更多!)。

使用多代理系统的主要好处包括:

  • 模块化:独立的代理使得开发、测试和维护代理系统更加容易。
  • 专业化:您可以创建专注于特定领域的专家代理,这有助于提高整个系统的性能。
  • 控制:您可以明确控制代理之间的通信(而不是依赖于函数调用)。

多代理架构

img

在多代理系统中有几种方式连接代理:

  • 网络:每个代理都可以与其他代理通信。任何代理都可以决定接下来调用哪个其他代理。
  • 监督者:每个代理与一个监督者代理通信。监督者代理决定接下来应该调用哪个代理。
  • 监督者(工具调用):这是监督者架构的一个特殊情况。个别代理可以被表示为工具。在这种情况下,监督者代理使用一个工具调用LLM来决定调用哪个代理工具,以及传递哪些参数给这些代理。
  • 层次结构:您可以定义一个有监督者的多代理系统。这是监督者架构的概括,并允许更复杂的控制流。
  • 自定义多代理工作流:每个代理只与代理子集中的其他代理通信。流程的部分是确定性的,只有一些代理可以决定接下来调用哪个其他代理。

网络

在这种架构中,代理被定义为图节点。每个代理都可以与每个其他代理通信(多对多连接),并且可以决定接下来调用哪个代理。虽然非常灵活,但随着代理数量的增加,这种架构的扩展性并不好:

  • 很难强制执行接下来应该调用哪个代理;
  • 很难确定应该在代理之间传递多少信息

我们建议在生产中避免使用这种架构,而是使用以下架构之一。

监督者

在这种架构中,我们定义代理为节点,并添加一个监督者节点(LLM),它决定接下来应该调用哪个代理节点。我们使用条件边根据监督者的决策将执行路由到适当的代理节点。这种架构也适用于并行运行多个代理或使用map-reduce模式。

from typing import Literal
from langchain_openai import ChatOpenAI
from langgraph.graph import StateGraph, MessagesState, START

model = ChatOpenAI()

class AgentState(MessagesState):
    next: Literal["agent_1", "agent_2"]

def supervisor(state: AgentState):
    response = model.invoke(...)
    return {
   "next": response["next_agent"]}

def agent_1(state: AgentState):
    response = model.invoke(...)
    return {
   "messages": [response]}

def agent_2(state: AgentState):
    response = model.invoke(...)
    return {
   "messages": [response]}

builder = StateGraph(AgentState)
builder.add_node(supervisor)
builder.add_node(agent_1)
builder.add_node(agent_2)

builder.add_edge(START, "supervisor")
# 根据监督者的决策路由到代理之一或退出
builder.add_conditional_edges("supervisor", lambda state: state["next"])
builder.add_edge("agent_1", "supervisor")
builder.add_edge("agent_2", "supervisor")

supervisor = builder.compile()

查看这个教程以获取有关监督者多代理架构的示例。

监督者(工具调用)

在这种监督者架构的变体中,我们定义个别代理为工具,并在监督者节点中使用一个工具调用LLM。这可以作为一个ReAct风格的代理实现,有两个节点——一个LLM节点(监督者)和一个执行工具(在这种情况下是代理)的工具调用节点。

from typing import Annotated
from langchain_openai import ChatOpenAI
from langgraph.prebuilt import InjectedState, create_react_agent

model = ChatOpenAI()

def agent_1(state: Annotated[dict, InjectedState]):
    tool_message = ...
    return {
   "messages": [tool_message]}

def agent_2(state: Annotated[dict, InjectedState]):
    tool_message = ...
    return {
   "messages": [tool_message]}

tools = [agent_1, agent_2]
supervisor = create_react_agent(model, tools)

自定义多代理工作流

在这种架构中,我们添加个别代理作为图节点,并提前定义代理被调用的顺序,以自定义工作流。在LangGraph中,工作流可以以两种方式定义:

  • 显式控制流(普通边):LangGraph允许您通过普通图边显式定义应用程序的控制流(即代理通信的顺序)。这是上述架构中最确定性的变体——我们总是提前知道接下来将调用哪个代理。
  • 动态控制流(条件边):在LangGraph中,您可以允许LLM决定应用程序控制流的部分。这可以通过使用条件边实现。一个特殊情况是监督者工具调用架构。在这种情况下,驱动监督者代理的工具调用LLM将决定工具(代理)被调用的顺序。
from langchain_openai import ChatOpenAI
from langgraph.graph import StateGraph, MessagesState, START

model = ChatOpenAI()

def agent_1(state: MessagesState):
    response = model.invoke(...)
    return {
   "messages": [response]}

def agent_2(state: MessagesState):
    response = model.invoke(...)
    return {
   "messages": [response]}

builder = StateGraph(MessagesState)
builder.add_node(agent_1)
builder.add_node(agent_2)
# 明确定义流程
builder.add_edge(START, "agent_1")
builder.add_edge("agent_1", "agent_2")

代理之间的通信

构建多代理系统时最重要的事情是弄清楚代理如何通信。有几个不同的考虑因素:

图状态与工具调用

代理之间传递的“有效载荷”是什么?在上述讨论的大多数架构中,代理通过图状态进行通信。在监督者带工具调用的情况下,有效载荷是工具调用参数。

img

图状态

要通过图状态进行通信,各个代理需要被定义为图节点。这些可以作为函数或整个子图添加。在图执行的每一步中,代理节点接收当前的图状态,执行代理代码,然后将更新的状态传递给下一个节点。

通常,代理节点共享一个单一的状态模式。然而,您可能想要设计具有不同状态模式的代理节点。

不同的状态模式

一个代理可能需要与其余代理有不同的状态模式。例如,搜索代理可能只需要跟踪查询和检索到的文档。在LangGraph中有两种方法可以实现这一点:

  • 定义具有单独状态模式的子图代理。如果子图和父图之间没有共享状态键(通道),则需要添加输入/输出转换,以便父图知道如何与子图通信。
  • 定义具有私有输入状态模式的代理节点函数,该模式与整个图的状态模式不同。这允许传递仅需要用于执行该特定代理的信息。

共享消息列表

代理之间通信的最常见方式是通过共享状态通道,通常是消息列表。这假设状态中至少有一个通道(键)由代理共享。当通过共享消息列表通信时,还有一个额外的考虑因素:代理是共享完整的历史记录还是仅共享最终结果

img

共享完整历史记录

代理可以共享他们的思维过程的完整历史记录(即“草稿垫”)与其他所有代理。这种“草稿垫”通常看起来像一个消息列表。共享完整思维过程的好处是,它可能有助于其他代理做出更好的决策,提高整个系统的整体推理能力。缺点是,随着代理数量和复杂性的增长,“草稿垫”将迅速增长,可能需要额外的策略进行内存管理

共享最终结果

代理可以拥有自己的私有“草稿垫”,并且只与其余代理共享最终结果。这种方法可能更适合拥有许多代理或更复杂的代理的系统。在这种情况下,您需要定义具有不同状态模式的代理。

对于作为工具调用的代理,监督者根据工具模式确定输入。此外,LangGraph允许在运行时传递状态给单个工具,以便从属代理在需要时可以访问父状态。

目录
相关文章
|
4月前
|
人工智能 运维 安全
配置驱动的动态 Agent 架构网络:实现高效编排、动态更新与智能治理
本文所阐述的配置驱动智能 Agent 架构,其核心价值在于为 Agent 开发领域提供了一套通用的、可落地的标准化范式。
855 65
|
4月前
|
SQL 监控 关系型数据库
MySQL主从复制:构建高可用架构
本文深入解析MySQL主从复制原理与实战配置,涵盖复制架构、监控管理、高可用设计及性能优化,助你构建企业级数据库高可用方案。
|
4月前
|
数据采集 运维 监控
构建企业级Selenium爬虫:基于隧道代理的IP管理架构
构建企业级Selenium爬虫:基于隧道代理的IP管理架构
|
5月前
|
监控 Java API
Spring Boot 3.2 结合 Spring Cloud 微服务架构实操指南 现代分布式应用系统构建实战教程
Spring Boot 3.2 + Spring Cloud 2023.0 微服务架构实践摘要 本文基于Spring Boot 3.2.5和Spring Cloud 2023.0.1最新稳定版本,演示现代微服务架构的构建过程。主要内容包括: 技术栈选择:采用Spring Cloud Netflix Eureka 4.1.0作为服务注册中心,Resilience4j 2.1.0替代Hystrix实现熔断机制,配合OpenFeign和Gateway等组件。 核心实操步骤: 搭建Eureka注册中心服务 构建商品
951 3
|
4月前
|
人工智能 监控 测试技术
告别只会写提示词:构建生产级LLM系统的完整架构图​
本文系统梳理了从提示词到生产级LLM产品的八大核心能力:提示词工程、上下文工程、微调、RAG、智能体开发、部署、优化与可观测性,助你构建可落地、可迭代的AI产品体系。
672 51
|
6月前
|
消息中间件 负载均衡 中间件
⚡ 构建真正的高性能即时通讯服务:基于 Netty 集群的架构设计与实现
本文介绍了如何基于 Netty 构建分布式即时通讯集群。随着用户量增长,单体架构面临性能瓶颈,文章对比了三种集群方案:Nginx 负载均衡、注册中心服务发现与基于 ZooKeeper 的消息路由架构。最终选择第三种方案,通过 ZooKeeper 实现服务注册发现与消息路由,并结合 RabbitMQ 支持跨服务器消息广播。文中还详细讲解了 ZooKeeper 搭建、Netty 集群改造、动态端口分配、服务注册、负载均衡及消息广播的实现,构建了一个高可用、可水平扩展的即时通讯系统。
698 0
|
4月前
|
人工智能 安全 数据可视化
配置驱动的动态Agent架构网络:实现高效编排、动态更新与智能治理
本文系统性地提出并阐述了一种配置驱动的独立运行时Agent架构,旨在解决当前低代码/平台化Agent方案在企业级落地时面临困难,为Agent开发领域提供了一套通用的、可落地的标准化范式。
431 18
配置驱动的动态Agent架构网络:实现高效编排、动态更新与智能治理
|
4月前
|
机器学习/深度学习 人工智能 搜索推荐
从零构建短视频推荐系统:双塔算法架构解析与代码实现
短视频推荐看似“读心”,实则依赖双塔推荐系统:用户塔与物品塔分别将行为与内容编码为向量,通过相似度匹配实现精准推送。本文解析其架构原理、技术实现与工程挑战,揭秘抖音等平台如何用AI抓住你的注意力。
1166 7
从零构建短视频推荐系统:双塔算法架构解析与代码实现
|
7月前
|
存储 SQL 分布式计算
19章构建企业级大数据平台:从架构设计到数据治理的完整链路
开源社区: 贡献者路径:从提交Issue到成为Committer 会议演讲:通过DataWorks Summit提升影响力 标准制定: 白皮书撰写:通过DAMA数据治理框架认证 专利布局:通过架构设计专利构建技术壁垒

热门文章

最新文章