❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦
🚀 快速阅读
- 功能特点:支持循环、持久性和人工干预,适用于复杂的工作流自动化。
- 技术原理:基于图结构的状态管理,节点和边定义执行顺序,支持条件边和自定义函数。
- 应用场景:客户服务自动化、数据检索与分析、业务流程自动化等。
正文(附运行示例)
LangGraph 是什么
LangGraph 是一个基于图结构的开源框架,专为构建状态化、多代理系统设计,特别是与大型语言模型(LLMs)一起使用时,用于创建代理和多代理工作流。作为 LangChain 生态系统的一部分,LangGraph 提供了循环、可控性和持久性等核心优势,支持定义涉及循环的流程,提供细粒度的流程和状态控制,并内置持久性功能,支持高级的人工干预和记忆功能。
LangGraph 平台是一个商业解决方案,用于将应用程序部署到生产环境。它支持复杂的代理架构,适用于各种自动化场景,如客户服务、数据检索和业务流程自动化。
LangGraph 的主要功能
- 循环和分支:支持在应用程序中实现循环和条件逻辑,对于构建复杂的代理架构至关重要。
- 持久性:在图的每一步之后自动保存状态,支持在任何点暂停和恢复图的执行,以支持错误恢复、人工干预工作流、时间旅行等功能。
- 人工干预:LangGraph 能中断图的执行,以便人工批准或编辑代理计划的下一个行动。
- 流式支持:支持按每个节点生成的顺序流式传输输出,包括令牌流。
- 与 LangChain 集成:LangGraph 与 LangChain 和 LangSmith 无缝集成,但也能独立使用。
LangGraph 的技术原理
- 状态管理:LangGraph 中的每个图执行都能创建一个状态,状态在图的节点之间传递,在每个节点执行后基于返回值更新内部状态。
- 节点和边:LangGraph 用节点表示执行的步骤,边定义节点之间的执行顺序和条件。
- 条件边:LangGraph 支持条件边,下一个节点的执行取决于图的状态。
- 图类型:支持选择不同类型的图定义状态更新的方式,或用自定义函数定义。
- 内存和持久性:基于内置的持久性功能,如 MemorySaver,保存状态,在不同的执行之间保持上下文。
- 与 LLMs 的集成:与大型语言模型(LLMs)一起工作,支持模型调用定义的工具,根据模型的输出决定下一步的行动。
如何运行 LangGraph
以下是一个简单的 LangGraph 示例,展示了如何使用 LangGraph 构建一个基于搜索工具的代理。
pip install -U langgraph
pip install langchain-anthropic
export ANTHROPIC_API_KEY=sk-...
from typing import Annotated, Literal, TypedDict
from langchain_core.messages import HumanMessage
from langchain_anthropic import ChatAnthropic
from langchain_core.tools import tool
from langgraph.checkpoint.memory import MemorySaver
from langgraph.graph import END, START, StateGraph, MessagesState
from langgraph.prebuilt import ToolNode
@tool
def search(query: str):
"""Call to surf the web."""
if "sf" in query.lower() or "san francisco" in query.lower():
return "It's 60 degrees and foggy."
return "It's 90 degrees and sunny."
tools = [search]
tool_node = ToolNode(tools)
model = ChatAnthropic(model="claude-3-5-sonnet-20240620", temperature=0).bind_tools(tools)
def should_continue(state: MessagesState) -> Literal["tools", END]:
messages = state['messages']
last_message = messages[-1]
if last_message.tool_calls:
return "tools"
return END
def call_model(state: MessagesState):
messages = state['messages']
response = model.invoke(messages)
return {
"messages": [response]}
workflow = StateGraph(MessagesState)
workflow.add_node("agent", call_model)
workflow.add_node("tools", tool_node)
workflow.add_edge(START, "agent")
workflow.add_conditional_edges("agent", should_continue)
workflow.add_edge("tools", 'agent')
checkpointer = MemorySaver()
app = workflow.compile(checkpointer=checkpointer)
final_state = app.invoke(
{
"messages": [HumanMessage(content="what is the weather in sf")]},
config={
"configurable": {
"thread_id": 42}}
)
print(final_state["messages"][-1].content)
资源
- 项目官网:https://langchain-ai.github.io/langgraph/
- GitHub 仓库:https://github.com/langchain-ai/langgraph
- LangGraph 平台文档:https://langchain-ai.github.io/langgraph/concepts/langgraph_platform
- LangGraph 教程:https://langchain-ai.github.io/langgraph/tutorials/
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦