AutoGen 架构演进全梳理:从 v0.4 到 Microsoft Agent Framework

简介: Microsoft AutoGen(2023–2025)是开创性多智能体开源框架,以“群聊式协作”替代单Prompt链,支持智能体对话、工具调用、代码执行与人工介入。v0.4达技术巅峰,后并入Microsoft Agent Framework(MAF)。其核心范式——LLM专家团队协同——已成行业标准。

Microsoft AutoGen 曾是构建 LLM 多智能体系统的标杆性开源框架。2023 年末由 Microsoft Research 发布后迅速成为研究人员和开发者的默认选择:智能体之间可以互相对话、调用工具、编写并执行代码、在流程中引入人类审批,以对话式的协调方式取代了单条长 Prompt 链条。

到 2026 年初,AutoGen v0.4(2025 年初重新设计的版本)是其技术上的巅峰之作。但是 2025 年末 Microsoft 正式把 AutoGen 与 Semantic Kernel 合并,统一为 Microsoft Agent Framework(MAF)。不过,很多人在谈到源自 AutoGen 的多智能体编排风格时依然习惯说"AutoGen"。本文梳理 AutoGen 的来龙去脉:它是什么、为什么重要、哪些核心设计在 2026 年仍然存续、v0.4/v0.7 时代的架构与典型用法、代码示例、利弊,以及当前的整体现状。

AutoGen 为什么在 2023–2024 年迅速走红

AutoGen 出现之前,LLM 的主流用法只有两种:单线程链式调用(LangChain 风格)和简单的工具调用智能体(ReAct 循环)。

AutoGen 带来了一套完全不同的心智模型——智能体是对话的参与者,整个系统就是一个群聊,有时有结构,有时自由发挥。智能体之间可以委派任务、互相批评与纠正、调用工具、编写并执行代码、向人类发起询问,在目标达成后自行终止。没有任何一个中央控制器需要提前知晓完整计划。

这套流程和人类解决复杂问题的方式高度吻合:分工、讨论、审查输出。早期几个病毒式传播的 demo(编码者 + 评审者 + 执行者联合解数学题、网络研究小组、股票分析团队)在许多任务上展现出比单智能体高 2–10 倍的表现。

AutoGen v0.4——大改版(2025)

v0.4(2025 年初发布)本质上是 AutoGen 2.0。旧的阻塞式同步 GroupChat 被三层新架构取代:autogen-core 负责底层事件驱动原语(RoutedAgent、订阅、发布/订阅消息传递);autogen-agentchat 是大多数人实际使用的高层 API(AssistantAgent、UserProxyAgent、GroupChat、initiate_chat);autogen-ext 则是可插拔的扩展层(OpenAI Assistant API、MCP 工作台、gRPC 分布式智能体等)。

核心改进包括完全异步化带来的更好可扩展性与可观测性、模块化的自定义组件(内存、模型、编排)、改进的错误恢复与检查点机制,以及跨语言支持的尝试——当然 Python 始终是主力。

2025 年末 / 2026 年初的典型安装方式:


 pip install -U"autogen-agentchat""autogen-ext[openai]"

经典双智能体模式(2026 年仍在使用和教学中)


from autogen import AssistantAgent, UserProxyAgent, config_list_from_json

# Usually load from OAI_CONFIG_LIST or env

config_list = config_list_from_json("OAI_CONFIG_LIST")

assistant = AssistantAgent(

name="helpful_engineer",

llm_config={"config_list": config_list},

system_message="You are a senior Python engineer. Write clean, efficient code."

)

user_proxy = UserProxyAgent(

name="user",

human_input_mode="NEVER", # NEVER / ALWAYS / TERMINATE

max_consecutive_auto_reply=10,

code_execution_config={"work_dir": "coding", "use_docker": False},

)

user_proxy.initiate_chat(

assistant,

message="Write a Python class that downloads daily OHLCV data from Yahoo Finance for any ticker and caches it in parquet."

)

短短几行代码就已经具备了完整的闭环:一个能做规划的 LLM 智能体、代码编写与本地执行、自动重试/错误修复循环、终止条件判定。

群聊——AutoGen 的标志性模式


from autogen import GroupChat, GroupChatManager

researcher = AssistantAgent(name="Researcher", system_message="Find latest information.", llm_config=llm_config)

critic = AssistantAgent(name="Critic", system_message="Be skeptical and point out flaws.", llm_config=llm_config)

writer = AssistantAgent(name="Writer", system_message="Write in engaging blog-post style.", llm_config=llm_config)

user_proxy = UserProxyAgent(name="User", code_execution_config=False, human_input_mode="TERMINATE")

groupchat = GroupChat(

agents=[user_proxy, researcher, critic, writer],

messages=[],

max_round=12

)

manager = GroupChatManager(

groupchat=groupchat,

llm_config=llm_config,

# speaker_selection_method="auto" / "round_robin" / custom func

)

user_proxy.initiate_chat(

manager,

message="Write a 800-word article about newest developments in small modular nuclear reactors in 2026."

)

2025–2026 年的实际项目中,5–12 个智能体的配置很常见:规划者 → 研究者 → 编码者 → 测试者 → 评审者 → 文档编写者 → 用户审批者,或干脆由智能体自行决定何时拆分子团队。

AutoGen 的突出优势

涌现行为是 AutoGen 最令人意外的特质:智能体经常以出乎预料的方式完成分工。人机协作的颗粒度做到了任意节点的审批与编辑,而非仅在流程末尾给一个是/否。代码执行能力让智能体能自己修复 bug形成"编写-运行-修复"的闭环。框架本身对实验非常宽容,规则容易打破,适合快速试错。社区围绕它衍生出了 MCP 支持、Perplexity 研究智能体、gRPC 扩展等一系列生态。

痛点(2024–2025)

成本是最直接的问题:一次 8 个智能体参与的 GPT-4o 对话,处理复杂任务时费用可达 5–30 美元。非确定性带来的复现与测试困难、长对话导致的 Token 爆炸和上下文窗口耗尽、调试时难以追溯"谁在什么时候说了什么",以及 v0.4 后期补丁出现之前几乎不存在的检查点/恢复机制,这些都是真实落地时绕不开的问题。

2025–2026 年的过渡——Microsoft Agent Framework(MAF)

2025 年 10 月,Microsoft 宣布 AutoGen 不再作为独立库接收重大功能更新。取而代之的是:AutoGen 的概念并入 Microsoft Agent Framework(Python 与 .NET 双语言支持),Semantic Kernel 负责企业级规划基础,AutoGen 部分则承载多智能体编排和对话模式。

MAF 延续了 AutoGen 的核心精神——对话式智能体、群聊编排、工具调用——但在此基础上补齐了工程化短板:内置检查点与恢复、基于 OpenTelemetry 的可观测性(追踪与指标)、对 MCP(Model Context Protocol)/A2A/OpenAPI 的原生支持、与 Azure AI Foundry / Dynamics 365 / M365 Copilot 的深度集成,以及将 Semantic Kernel 规划器与 AutoGen 风格团队混用的统一 SDK。

迁移指南很快就出现在 Microsoft Learn 和 GitHub 上。不过在 2026 年初仍有大量开源项目在使用旧的 autogen-agentchat 包——对于原型开发来说,它足够熟悉,也确实还能用。

当前状态(2026 年 3 月)

在原型开发、研究和教学场景中,经典 AutoGen v0.4 / v0.7 的代码依然随处可见。生产和企业环境则几乎全面转向 Microsoft Agent Framework,或正在迁移途中。社区围绕 MAF + AutoGen 风格模式保持着很高的活跃度。CrewAI、LangGraph、OpenAI Swarm、Magentic-One 等后来者,都或多或少借鉴了 AutoGen 率先提出的多智能体协作理念。

AutoGen 留下了什么

AutoGen 的贡献不止于一个库。它从根本上改变了开发者对 LLM 应用的认知框架——从"一个 Prompt 统治一切"转向"组建一支 LLM 专家团队,让它们彼此对话"。多智能体协作作为一等原语,到 2026 年已经渗透到整个行业。即便不再写一行 AutoGen 代码,日常使用的系统里大概率已经携带着 AutoGen 的基因。

框架本身作为独立产品已经"退役",但其架构思路深度嵌入了 Microsoft Agent Framework 和更广泛的智能体生态。2026 年 3 月起步的新项目应直接从 Microsoft Agent Framework 文档开始;维护旧代码或偏好原始简洁性的场景下,v0.4 agentchat API 大概率还能继续运行多年。

Microsoft Agent Framework(MAF)

Microsoft Agent Framework(MAF)是 Microsoft 当前一代的开源智能体框架,覆盖构建、编排、部署与管理的全流程,尤其面向多智能体系统。2025 年 10 月进入公开预览,它是两个前代项目的官方继任者:AutoGen 带来了对话式多智能体编排、涌现团队行为和面向研究的灵活性;Semantic Kernel 则贡献了企业级基础——类型安全、中间件、可观测性、插件/连接器体系以及生产稳定性。

到 2026 年初,MAF 已被定位为 Python 与 .NET 双语言智能体开发的统一长期路径,与 Azure AI Foundry 深度绑定,但同时保持完全开源和模型无关。

MAF 要解决的,正是 2024–2025 年开发者不断碰到的那道两难题:想快速做原型、让多个智能体自由协作,选 AutoGen;想要生产级的可靠性、追踪、持久化、类型安全和企业连接器,选 Semantic Kernel。MAF 在单个 SDK 和运行时中把两边的能力合到了一起——来自 AutoGen 的简洁智能体/团队抽象,来自 Semantic Kernel 的会话状态管理、中间件管道、OpenTelemetry、过滤器和检查点,再加上全新的一层:基于图的显式工作流,用于确定性的多智能体编排。

Python最小单智能体


from agent_framework import AIAgent

from azure.ai.openai import AzureOpenAIClient # or openai.OpenAI etc.

import os

client = AzureOpenAIClient(

endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),

credential=…, # DefaultAzureCredential() etc.

)

agent = client.get_chat_client("gpt-4o-mini").as_ai_agent(

instructions="You are a concise technical writer.",

name="TechWriter"

)

response = await agent.run("Explain Microsoft Agent Framework in one paragraph.")

print(response.content)

C#类似的最小智能体


using Azure.AI.OpenAI;

using Azure.Identity;

using Microsoft.Agents.AI;

var endpoint = Environment.GetEnvironmentVariable("AZURE_OPENAI_ENDPOINT");

var client = new AzureOpenAIClient(new Uri(endpoint), new AzureCliCredential());

var chatClient = client.GetChatClient("gpt-4o");

var agent = chatClient.AsAIAgent(

instructions: "You are a friendly assistant. Keep answers brief.",

name: "HelloAgent"

);

var response = await agent.InvokeAsync("Hello! Tell me about yourself.");

Console.WriteLine(response.Content);

多智能体群聊(风格上仍然很 AutoGen):2026 年初的多数示例在模式上与 AutoGen 0.4 群聊高度相似,区别在于底层多了持久性支持:


from agent_framework import GroupChat, GroupChatManager, AssistantAgent

# … define researcher, critic, writer agents …

group = GroupChat(

agents=[user_proxy, researcher, critic, writer],

max_rounds=15,

# now supports persistent session id, checkpointing, etc.

)

manager = GroupChatManager(group=group)

await user_proxy.initiate_chat(

manager,

message="Research & write 600-word post on SMR nuclear progress in 2026"

)

对话式群聊之外,MAF 新增了基于图/DAG 的工作流编排。节点可以是智能体、函数、条件判断或循环,执行路径是确定性的——非常适合业务流程与合规场景。单个节点内部仍然可以使用对话模式,类型安全的输入/输出在 .NET 中尤其顺手。Azure AI Foundry 在 2026 年初还提供了可视化工作流设计器的预览版。

GroupChat 和 Workflow 面向的场景有明确区分:前者适合开放式研究和调试,后者用于订单处理、贷款审批、事件响应一类必须按严格顺序和分支逻辑运行的流程。

继承自 AutoGen 的能力(在 MAF 中延续)

整合之前AutoGen 在 2024–2025 年多项学术/研究 Benchmark 上处于领先或并列位置。GAIA 基准测试(开放式推理)中,AutoGen 多智能体团队在 2024 年至 2025 年初频繁占据榜首,困难子集上的成功率通常在 70–85% 区间,单智能体同期为 40–60%。SWE-bench Verified(软件工程)上,多智能体 AutoGen 变体在代码修复任务中比单智能体高出 25–40%。Microsoft 的行业案例(如 Novo Nordisk 的数据科学流水线)报告了约 25% 的迭代周期缩短。

MAF 保留了这些对话/群聊模式,涌现能力基本得以继承,而新增的确定性图编排与持久化机制预计会在不过多牺牲灵活性的前提下提升整体可靠性。

总结

看学术/研究 Benchmark(GAIA、WebArena 等)经典 AutoGen 积累的排行榜成绩更多;MAF 因为发布晚(RC 阶段),相关数据还不充分。看生产可行性、一致性、延迟、可调试性、持久化、Azure 集成等早期数据指向 MAF RC 在开发者综合 Benchmark 和企业指标上领先多数替代方案。多数谨慎的采用者在等 3 月底的 GA 版本,届时 API 将稳定,文档和示例也会更完整,预计会带出一波来自 Foundry 和第三方的正式 Benchmark。

https://avoid.overfit.cn/post/c00881ddd6f34c5ebcb34c4a862cc977
by JOLALF

目录
相关文章
|
6月前
|
人工智能 API 开发工具
AutoGen - 架构学习指南
AutoGen 是微软开源的 AI Agent 框架,支持多智能体协作与分布式部署。本指南从架构解析、技能清单到学习路径,带你由浅入深掌握其核心原理与实战应用,助力构建可扩展的智能系统。
2315 5
|
5月前
|
机器学习/深度学习 传感器 算法
BipedalWalker实战:SAC算法如何让机器人学会稳定行走
本文探讨基于Soft Actor-Critic(SAC)算法的下肢假肢自适应控制。传统方法依赖精确建模,难以应对复杂环境变化。SAC通过最大熵强化学习,使假肢在仿真中自主探索、学习稳定步态,具备抗干扰与容错能力。结合生物工程视角,将神经网络映射为神经系统,奖励函数关联代谢效率,实现从试错到自然行走的演化。相位图分析显示极限环形成,标志动态稳定步态建立,能效曲线表明后期动作更节能。研究为智能假肢迈向临床应用提供新思路。
468 117
BipedalWalker实战:SAC算法如何让机器人学会稳定行走
|
1月前
|
人工智能 安全 Linux
OpenClaw AI创业风口全解:阿里云/本地部署+156个盈利项目拆解+百炼API配置实战指南
2026年一场悄无声息的AI淘金热已经全面爆发。一组来自TrustMRR的真实营收数据足以说明一切:平台上收录156个基于OpenClaw(Clawdbot)的创业项目,最长成立不超过6周,过去30天合计营收达到379,631美元,平均每个项目月入2,432美元,头部项目单月营收高达50,000美元。这些项目几乎都是一人团队或两三人小组,没有VC融资、没有实体办公室、没有高调官宣,却实实在在通过Stripe产生真金白银的收入。
711 0
|
1月前
|
人工智能 JavaScript API
解锁AI协同干活!OpenClaw阿里云/本地零基础部署接入免费API+集成Agent Teams配置及常见问题
2026年,AI Agent的进化方向从“单点执行”转向“团队协作”——OpenClaw(曾用名Clawdbot)借鉴Claude Code的Agent Teams核心逻辑,推出专属“多智能体协同框架”,支持创建由多个AI代理组成的“虚拟团队”,分工协作完成复杂任务。不同于传统单代理模式,Agent Teams让AI代理具备“自我协调、并行工作、互相通信”能力,可同时处理研究、开发、审查等多维度任务,效率提升3-5倍。
1539 7
|
3月前
|
前端开发 算法
深度研究Agent架构解析:4种Agent架构介绍及实用Prompt模板
本文系统梳理了深度搜索Agent的主流架构演进:从基础的Planner-Only,到引入评估反馈的双模块设计,再到支持层次化分解的递归式ROMA方案。重点解析了问题拆解与终止判断两大核心挑战,并提供了实用的Prompt模板与优化策略,为构建高效搜索Agent提供清晰路径。
1639 10
深度研究Agent架构解析:4种Agent架构介绍及实用Prompt模板
|
1月前
|
存储 人工智能 监控
多智能体系统的三种编排模式:Supervisor、Pipeline 与 Swarm
2026年,多智能体系统成主流:单智能体易陷上下文污染、角色混乱与故障扩散;而Supervisor、Pipeline、Swarm三类编排模式,配合结构化通信、按能力拆分、置信度验证与全链路Tracing,可构建更可靠、可控、可扩展的AI协作系统。
641 2
多智能体系统的三种编排模式:Supervisor、Pipeline 与 Swarm
|
4月前
|
人工智能 运维 负载均衡
AgentRun上线!5分钟完成企业级Agent构建
阿里云发布函数计算AgentRun,基于Serverless架构打造一站式Agentic AI基础设施,深度融合AI场景,实现毫秒级弹性、按需付费、安全沙箱与全链路可观测,助力企业降本60%,加速AI Agent高效落地生产环境。
765 0
AgentRun上线!5分钟完成企业级Agent构建
|
1月前
|
人工智能 Linux API
喂饭级图文教程!OpenClaw阿里云/MacOS/Linux/Windows本地安装+配置免费api+4个必装Skills分享
“OpenClaw部署完了,却只会尬聊?”这是2026年多数新手的共性困惑。事实上,OpenClaw本体只是“智能大脑”,真正让它具备联网搜索、自动化办公等实用能力的,是其成熟的Skills生态——官方技能市场ClawHub已收录3000+插件,支持一键安装、即插即用。但并非所有技能都值得装,参考文章精准筛选出4个必装核心技能,覆盖技能管理、联网搜索、办公自动化等80%高频场景,装上它们才算真正解锁OpenClaw的生产力价值。
1993 5
|
14天前
|
机器学习/深度学习 存储 人工智能
还在手写Skill?hermes-agent 让 Agent 自己进化能力
Hermes-agent 是 GitHub 23k+ Star 的开源项目,突破传统 Agent 依赖人工编写Aegnt Skill 的瓶颈,首创“自我进化”机制:通过失败→反思→自动生成技能→持续优化的闭环,让 Agent 在实践中自主构建、更新技能库,持续自我改进。
1923 8
|
6月前
|
人工智能 自然语言处理 测试技术
用Dify搭建可复用的测试用例工厂
利用Dify搭建可复用的测试用例工厂,实现自然语言到测试用例的智能生成。结合大模型与测试方法论,提升用例覆盖率与编写效率,降低维护成本,推动测试开发智能化升级。关注霍格沃兹测试学院,回复「资料」获取AI测试开发技术合集。