MCP 是什么?一文看懂模型上下文协议

简介: MCP(模型上下文协议)由Anthropic于2024年推出,旨在解决AI大模型的数据滞后问题,通过连接第三方数据源提升回答的时效性和相关性。传统联网搜索依赖公开信息,难以满足行业内部或定制化需求。MCP提供统一标准,使开发者能安全双向连接数据源与AI工具,简化集成流程。例如,Apifox MCP Server可将API文档作为数据源提供给支持MCP的IDE,助力智能代码生成。未来,MCP有望推动AI工具从封闭系统转向开放协作网络,显著提升开发效率与创新能力。

如果你关注着 AI 的发展,那么最近可能经常看到 MCP 这个词。


MCP 即模型上下文协议(Model Context Protocol)的缩写,于 2024 年 11 月由 Claude 大模型的公司 Anthropic 推出并开源。这是一个将 AI 助手连接到第三方数据源的新标准,包括内容存储库、业务工具和开发环境。它的目的是帮助 AI 大模型生成更好、更相关的回答。


AI 模型的“信息孤岛”问题

随着 AI 大模型获得了广泛的使用,该行业在训练模型方面投入了大量资金,新的模型在推理能力和生成质量方面得到了较大的进步。


但是,训练 AI 的数据集始终是滞后的、固定的,再强大的 AI 也只是知道过去发生的事情,却无法实时从外界获取最新的信息,比如今天的天气情况、今天的热点新闻等。


联网搜索:第一代解决方案

为了解决这个问题,常见的 AI 助手通过 AI 代理模式,设计了联网搜索的工作流。


当用户和 AI 助手对话,且开启联网搜索后,AI 助手会先将用户说的话发送给第三方搜索引擎,然后将第三方搜索引擎的返回的内容和用户说的话一起提供给 AI 大模型,再由 AI 大模型生成回答。可以看出,搜索引擎在这里充当了第三方实时信息源的角色,为 AI 大模型提供了额外的上下文信息。


自有系统数据:超越公共搜索的需求

对于搜索引擎能搜索到的、有多种信息源的公开信息,AI 助理的这种联网搜索功能效果不错。


但是,如果希望 AI 能提供行业内部信息、或者你研发的自有系统内的信息,AI 联网搜索的效果就很不好,甚至无法实现。举个简单的例子,问开启了联网搜索的 DeepSeek 这个问题:Apifox 的最新版本是多少?DeepSeek 的回答是 2.6.41。但实际上,Apifox 的最新版已经到了 2.7.2,差了 10 个版本。


为了让自有系统和 AI 模型紧密协作,打破信息隔离,用户可以自行搭建 AI 代理,将自有系统的数据通过 API 的形式接入 AI 助手。继续上面的例子,我们可以将 Apifox 的更新日志内的信息,通过 API 向外提供。然后设定这样一个工作流:如果有人问 Apifox 的最新版本是多少,则调用这个 API,再将 API 返回的结果和用户的原始问题一起提供给 AI,这样 AI 就可以给出正确的回答了。


MCP:构建统一的模型上下文连接标准


以上只是一个非常简单的场景,在真实业务环境中,需要将多种数据源接入AI大模型,也就必须得为不同的数据源、不同的 AI 助手开发不同的连接器。虽然可以使用第三方 AI 代理工具或知识库工具,但仍然无法避免架构碎片化的问题。


MCP 协议正是为了解决数据连接器集成碎片化的问题而生。它使开发人员能够在其数据源和 AI 驱动的工具之间建立安全的双向连接。架构简单明了:开发人员可以通过 MCP 服务器(MCP Server)公开他们的数据,也可以构建连接到这些服务器的 AI 应用程序(MCP 客户端,MCP Client)。


也就是说,开发者现在可以根据 MCP 这个标准协议来完成 AI 大模型与数据源的集成,而不是为每个数据源、每个 AI 助手维护单独的连接器。随着 MCP 生态系统的成熟,人工智能系统将在不同的工具和数据集之间移动时保持上下文,用更可持续的架构取代当今的零散集成。


Apifox MCP Server:API 开发的智能助手

现在,越来越多的 AI 工具已经内置了 MCP 客户端,比如 Cursor、VSCode + Cline、Claude Desktop 和 Cherry Studio,它们都已经具备连接到 MCP 服务器的能力。


Apifox 作为 API 设计、开发、测试一体化协作平台,已经观察到了 MCP 在 API 开发工作流中的价值。使用 Apifox MCP Server,可以将 Apifox 项目内的 API 文档作为数据源提供给 Cursor 等支持 AI 编程的 IDE 工具,以便让 AI 能够直接访问项目对应的 API 文档数据。



Apifox MCP 能做什么


  1. 根据 API 文档,生成数据模型代码

例如:通过 MCP 获取 API 文档,然后生成 Pet 及其相关模型的定义代码


  1. 修改 API 文档后,为数据模型代码添加新增的字段

例如:重新读取 API 文档数据,在 Pet DTO 里添加 API 文档新增的几个字段


  1. 根据 API 文档,生成接口的 MVC 代码

例如:根据 API 文档,生成接口 /pet 相关的所有 MVC 代码


  1. 其他场景

请发挥你和你们团队的想象力...



如何配置 Apifox MCP Server

Apifox MCP Server 支持以下三种不同的使用场景,可以根据不同场景选择下文对应的配置方法。


无论你使用的是 Cursor、VSCode + Cline 还是其它支持 MCP 的 IDE,只需简单配置,AI 即可直接读取 API 定义,生成规范代码,提升开发体验。


1. 使用公开发布的 Apifox 在线文档

适用场景

• 使用 AI 读取别人公开发布的 API 文档

• 让自己团队外的开发者,即 API 的调用方,通过 AI 读取自己团队公开发布的 API 文档

特点

• 无需 Apifox 个人访问令牌

• 仅支持公开发布的文档,不支持设置了密码、白名单的文档

• 对于自己团队的非公开文档,建议使用项目 ID 和个人访问令牌读取 Apifox 项目数据

具体配置方法,请查看:通过 MCP 使用公开发布的在线文档


2. 使用 Apifox 项目数据

适用场景

使用 AI 读取自己团队的 API 文档

特点

需要 Apifox 个人访问令牌

具体配置方法,请查看:通过 MCP 使用项目内文档


3. 使用 Swagger/OpenAPI 文件

适用场景

使用 AI 读取本地或线上的 Swagger/OpenAPI 文件

特点

• 不依赖 Apifox 项目或在线文档

• 无需 Apifox 个人访问令牌

具体配置方法,请查看:通过 MCP 使用 OpenAPI 文件



结语:MCP 的未来展望

MCP 协议代表了 AI 工具生态系统的重要发展方向 - 从孤立的封闭系统转向开放互联的协作网络。通过 MCP,AI 模型不再仅限于训练数据的范围,而是能够实时连接到各种专业数据源,从而提供更准确、更有价值的辅助。


特别是在软件开发领域,Apifox MCP Server 等工具的出现,让 AI 编程助手能够真正理解项目的技术细节和领域知识,从而提供更加精准的代码建议和问题解决方案。随着越来越多的工具加入 MCP 生态系统,我们有理由相信,AI 辅助开发的体验和效果将会得到显著提升。


无论你是开发者、产品经理,还是技术决策者,了解并应用 MCP 协议,都将帮助你更好地利用 AI 工具提升工作效率和创新能力。


原文链接:MCP 是什么?一文通俗易懂的介绍

相关文章
|
25天前
|
存储 机器学习/深度学习 数据可视化
结合多模态RAG和异步调用实现大模型内容
文章探讨了如何利用多模态大模型和工程优化手段提升物流理赔业务效率。核心方案包括:通过多模态RAG技术实现图片查重,结合异步调用方法优化货损识别功能。
160 36
结合多模态RAG和异步调用实现大模型内容
|
11天前
|
人工智能 中间件 API
别让创意卡在工具链!MiniMax MCP Server:MiniMax 开源 MCP 服务打通多模态生成能力,视频语音图像一键全搞定
MiniMax MCP Server 是基于模型上下文协议的多模态生成中间件,支持通过文本指令调用视频生成、图像创作、语音合成及声音克隆等能力,兼容主流客户端实现跨平台调用,采用检索增强生成技术保障内容准确性。
129 3
别让创意卡在工具链!MiniMax MCP Server:MiniMax 开源 MCP 服务打通多模态生成能力,视频语音图像一键全搞定
|
25天前
|
人工智能 程序员 Go
一文掌握 MCP 上下文协议:从理论到实践
本文介绍了 模型上下文协议(Model Context Protocol,MCP),一种用于规范大型语言模型(LLM)与外部数据源及工具之间交互的开放标准。内容涵盖了 MCP 协议的整体架构(客户端与服务器的一对一连接模式)、消息传输机制(采用 JSON-RPC 2.0 格式)、以及客户端与服务器支持的核心原语。
844 68
|
25天前
|
人工智能 中间件 程序员
大模型上下文协议 MCP 带来了哪些货币化机会
本文探讨了MCP(Model-Calling Protocol)的兴起及其对AI生态的影响。自2月中旬起,MCP热度显著提升,GitHub Star和搜索指数均呈现加速增长趋势。MCP通过标准化协议连接大模型与外部工具,解决了碎片化集成问题,推动AI应用货币化及生态繁荣。文章分析了MCP与Function Calling的区别,指出MCP更适用于跨平台、标准化场景,而Function Calling在特定实时任务中仍具优势。此外,MCP促进了 supply端(如云厂商、大模型、中间件服务商)和消费端(终端用户)的变革,尤其以Devin和Manus为代表,分别改变了程序员和普通用户的交互方式。
390 37
大模型上下文协议 MCP 带来了哪些货币化机会
|
6天前
|
人工智能 API
MCP协议的局限性
5年前,我把 AI 比喻为一种智能化的 API 网关,提出一种分治的思想,将一个大问题转换为若干可解的小问题,如今,这种思想正在 mcp 这种协议沿用。但目前来看,它的实现方式还是有点丑陋的,并且有一些问题。
|
4月前
|
存储 人工智能 自然语言处理
ChatMCP:基于 MCP 协议开发的 AI 聊天客户端,支持多语言和自动化安装 MCP 服务器
ChatMCP 是一款基于模型上下文协议(MCP)的 AI 聊天客户端,支持多语言和自动化安装。它能够与多种大型语言模型(LLM)如 OpenAI、Claude 和 OLLama 等进行交互,具备自动化安装 MCP 服务器、SSE 传输支持、自动选择服务器、聊天记录管理等功能。
1647 16
ChatMCP:基于 MCP 协议开发的 AI 聊天客户端,支持多语言和自动化安装 MCP 服务器
|
4月前
|
缓存 算法 关系型数据库
MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理
麻省理工学院韩松团队提出DuoAttention框架,旨在提高大型语言模型(LLM)处理长上下文的效率。该框架通过区分检索头和流式头,仅对检索头应用全键值缓存,减少内存消耗和计算时间,同时保持模型长上下文处理能力。实验结果显示,DuoAttention在多种模型架构上显著提升了推理效率,为LLM的实际应用提供了新可能。
140 14
|
11月前
|
Kubernetes 搜索推荐 API
|
6月前
|
人工智能 API 调度
大语言模型 LLM 管理功能特点解析
大语言模型领域正快速发展,涵盖技术革新、跨领域应用及行业影响。随着技术进步,更多创新性AI应用和服务涌现。Botnow加速迭代AI应用开发平台,赋能各行各业。新发布的模型管理功能包括模型仓库和模型服务,支持模型文件托管、部署及推理服务,提升使用效率,降低成本。模型服务具备本地推理和接入外部模型的能力,满足中大型企业对大语言模型自主可控的需求。
下一篇
oss创建bucket