函数计算支持热门 MCP Server 一键部署

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: MCP(Model Context Protocol)自2024年发布以来,逐渐成为AI开发领域的实施标准。OpenAI宣布其Agent SDK支持MCP协议,进一步推动了其普及。然而,本地部署的MCP Server因效率低、扩展性差等问题,难以满足复杂生产需求。云上托管成为趋势,函数计算(FC)作为Serverless算力代表,提供一键托管开源MCP Server的能力,解决传统托管痛点,如成本高、弹性差、扩展复杂等。通过CAP平台,用户可快速部署多种热门MCP Server,体验高效灵活的AI应用开发与交互方式。

全球 AI 开发者们热议“MCP”(Model Context Protocol)。尽管这一协议在2024年由Anthropic发布时并未引起广泛关注,但2025年初,Cursor宣布集成MCP迅速将其带入开发者的视野,3月Manus的爆发更是加速了MCP的普及。而就在3月27日,OpenAI正式宣布其Agent SDK全面支持MCP协议,这一举措标志着MCP将会成为该领域的实施标准,必将重塑AI应用的开发与交互方式。

目前,社区的MCP Server大多采用本地STDIO模式部署,尽管这种模式能支持基本模型服务和工具的数据交互,简单测试尚可,但在涉及具体的开发,调试,由于IO重定向带来不同程度的开发复杂度;同时随着AI场景的日益丰富,一方面数据访问不再仅限于本地,另一方面业务对于架构可靠性要求,基于本地部署的 MCP Server 势必无法满足复杂的生产需求。因此,云上托管的MCP Server将成为未来的主流趋势。函数计算(FC)目前已支持一键托管开源的MCP Server,欢迎大家前来体验。

为什么云上托管 MCP Server 是趋势?

  • 吸引更多开发者参与MCP生态建设

MCP协议成为事实标准后,开发者无需为每个Function编写复杂的JSON Schema参数说明,这大大降低了重复开发的工作量。通过开源或第三方的MCP Server,开发者能够迅速共享和复用资源。例如,Blender-MCP项目允许用户通过MCP协议将自然语言指令转化为三维建模操作,项目开源一周便获得了5.4k stars。

  • SaaS服务商拥抱MCP Server

随着MCP的普及,SaaS服务商可以通过集成MCP Server触达新的市场和行业机会,而MCP协议的Stdio和SSE标准要求服务和数据供应商提供API访问,而云上托管将是最优选择。

  • 企业级 MCP Server 要求安全合规和弹性伸缩

MCP Server 将服务/数据对接给大模型,如果不限制大模型的数据权限范围和敏感数据过滤,将对企业产生安全合规风险,云上托管提供权限管控、操作审计、用户隐私保护等内置安全工具,大幅减少安全风险暴露面,合规成本低。同时 MCP Server 的爆火,对服务商是巨大的机会,服务商将面临着用户量和模型调用量的突增,云上托管如函数计算具备免运维、自动弹性、自动容灾的优势,确保服务体验的同时实现降本增效。

云上托管 MCP Server 核心痛点

  • 传统托管效率低

从 MCP 架构的描述中可以看到,MCP Server 作为 AI 大模型和企业服务的中间层,通过购买传统云资源部署效率低下,其代码通常相对轻量,开发者需要快速部署,快速测试仅仅可能是一条NPX命令。 "MCP Servers: Lightweight programs that each expose specific capabilities through the standardized Model Context Protocol"。

  • 业务规模不确定

作为原有 Function Calling 的替代者,工具调用请求规模具有显著的不确定性,传统云资源托管需要长期持有资源,资源供给无法实现按业务流量进行灵活的动态适配。

  • 定制扩展流程复杂

MCP Server 作为AI和企业服务能力的中间层,其逻辑覆盖简单路由到复杂计算,随着业务场景的丰富会变得越发复杂,务必在选择云上托管的时候,也要考虑后续业务的开发和维护效率。 务必要求开发层面需要更灵活的定制能力,实现快速变更,快速上线,灵活的版本和流量管理。

  • 数据访问网络配置复杂

传统MCP Server依赖于本地化部署实现数据安全,随着云端部署的普遍化,云端 MCP Server 不仅需要能够实时安全的访问企业私有数据,也需要适配复杂的业务环境,在Internet和Intranet网络之间进行互通,这就要求能够快速的互联网公共服务和企业云上 VPC 快速打通,提供安全灵活的执行环境。

函数计算成为云上托管 MCP Server 的最简方式

社区积极的推动 MCP 协议演进,推动 Steamable HTTP transport 技术代替原有 HTTP+SSE 的通信方式,原有的 MCP 传输方式就像是你和客服通话时必须一直保持在线(SSE 需要长连接),而新的方式更像是你随时可以发消息,然后等回复(普通 HTTP 请求,但可以流式传输)。这种形式与 Serverless 算力无状态模式更加契合,协议层演进将更有利于云上Serverless算力的价值放大,随着AI模型复杂度和数据规模持续增长,Serverless与MCP Server的结合将成为趋势。

https://github.com/modelcontextprotocol/specification/pull/206

image.png

函数计算作为云上Serverless 算力的典型代表,其凭借在开发效率,按需付费,极致弹性等产品能力直击云上 MCP Server 托管的核心痛点,为企业MCP Server 提供高效,灵活,匹配业务规模的托管能力。

  1. 成本效益最大化
    • 按需付费,避免资源浪费:Serverless按实际计算资源消耗计费,而非固定服务器租赁费用,尤其适合AI训练和推理任务中常见的波动性负载。
    • 消除闲置成本:AI模型训练通常需要突发性算力,Serverless能自动分配资源,避免传统模式下预留资源导致的服务器空置问题。
  2. 弹性扩展与资源优化
    • 动态资源分配:将MCP Server 托管在函数计算上,基于Serverless架构,可实时响应AI任务需求,自动扩展CPU/GPU,确保算力高并发处理能力。
    • 多模型协作支持:支持多个AI项目并行运行,资源按优先级动态调度,提升整体算力利用率。
  3. 简化运维与加速开发
    • 无服务器管理:开发者无需关注服务器配置、补丁更新或集群管理,专注算法优化和迭代MCP Server 内部逻辑和工具丰富度。
    • 开箱即用的工具链:函数计算提供了完善的工具链能力,基于开源 Serverless Devs开源工具实现本地快速部署。
  4. 更灵活的MCP协议适配
    • 当前函数计算提供单实例多并发能力,扩展对存量SSE协议的适配,基于社区提供的MCP Proxy方案能够快速将存量本地MCP Server托管到云端,方便业务平台的测试开发。
    • 提供基于WebSocket 的MCP协议适配参考实现,支持单实例单并发和单实例多并发能力支持,提升协议适配和场景适配;同时团队紧跟社区 Streamable HTTP 方案,敬请期待!

体验:一键部署热门 MCP Server

依赖 Serverless 应用开发平台 CAP,我们能够快速实现开源 MCP Server 一键托管,假如您搭建的 AI Agent 中需要加入导航服务,您可能会需要高德社区提供的 MCP Server ,接下来我们将以开源项目 amap-maps-mcp-server 为例演示如何一键部署 MCP Server 到函数计算FC上。

第一步: 模版部署

点击 https://cap.console.aliyun.com/create-project?template=start-mcp-amap-maps 进入CAP控制台。填入从高德开发者申请的 Token(立刻申请完成),可以在这里申请

image.png

第二步: 测试 MCP Server 提供的工具能力

部署成功之后,通过触发器页面,拿到测试URL可对当前MCP Server进行测试。如果希望将部署的MCP Server 用于生产,建议使用自定义域名代替测试URL。

image.png

测试步骤一:本地终端运行命令: npx @modelcontextprotocol/inspector

image.png

测试步骤二:浏览器中打开本地提供的测试地址“http://localhost:5173/#tools”进行测试,在URL表单中填入上面获取的URL,添加/sse 后缀填入URL表单中,点击Connect会看到开源 MCP Server提供的Tools列表,可以点击置顶Tool进行交互验证。

image.png

如果您对于产品有更多建议或者对 MCP server 云端托管有更多想法可以加入钉钉群(群号:64970014484)与我们取得联系。

更多开源 MCP Server一键部署

MCP 开源地址 编程语言 一键部署 Server 类型
https://github.com/baidu-maps/mcp/tree/main/src/baidu-map/node Node https://cap.console.aliyun.com/create-project?template=start-mcp-nodejs-baidu-map mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/github Node https://cap.console.aliyun.com/create-project?template=start-mcp-github mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/everart Node https://cap.console.aliyun.com/create-project?template=start-mcp-ever-art mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/fetch Python https://cap.console.aliyun.com/create-project?template=start-mcp-fetch mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/brave-search Node https://cap.console.aliyun.com/create-project?template=start-mcp-brave-search mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/time Python https://cap.console.aliyun.com/create-project?template=start-mcp-time mcp-proxy
https://github.com/devsapp/amap-maps-mcp-server Node https://cap.console.aliyun.com/create-project?template=start-mcp-amap-maps mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/everything Node https://cap.console.aliyun.com/create-project?template=start-mcp-everything sse
https://github.com/modelcontextprotocol/servers/tree/main/src/aws-kb-retrieval-server Node https://cap.console.aliyun.com/create-project?template=start-mcp-aws-kb-retrieval-server mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/gitlab Node https://cap.console.aliyun.com/create-project?template=start-mcp-gitlab mcp-proxy
https://github.com/modelcontextprotocol/servers/tree/main/src/puppeteer Node https://cap.console.aliyun.com/template-detail?template=start-mcp-puppeteer sse
https://github.com/modelcontextprotocol/servers/tree/main/src/sequentialthinking Node https://cap.console.aliyun.com/create-project?template=start-mcp-sequentialthinking mcp-proxy
相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
打赏
0
8
10
0
90
分享
相关文章
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
174 29
函数计算支持热门 MCP Server 一键部署
云上托管 MCP 搭建 AI Agent 将成为趋势。函数计算 FC 目前已经支持开源 MCP Server 一键托管,欢迎体验。
656 114
Hologres+函数计算+Qwen3,对接MCP构建企业级数据分析 Agent
本文介绍了通过阿里云Hologres、函数计算FC和通义千问Qwen3构建企业级数据分析Agent的解决方案。大模型在数据分析中潜力巨大,但面临实时数据接入与跨系统整合等挑战。MCP(模型上下文协议)提供标准化接口,实现AI模型与外部资源解耦。方案利用SSE模式连接,具备高实时性、良好解耦性和轻量级特性。Hologres作为高性能实时数仓,支持多源数据毫秒级接入与分析;函数计算FC以Serverless模式部署,弹性扩缩降低成本;Qwen3则具备强大的推理与多语言能力。用户可通过ModelScope的MCP Playground快速体验,结合TPC-H样例数据完成复杂查询任务。
借助 serverless 将 MCP 服务部署到云端
本文介绍了如何将 MCP 服务通过 SSE 协议部署到云端,避免本地下载和启动的麻烦。首先,使用 Python 实现了一个基于 FastMCP 的网络搜索工具,并通过设置 `transport='sse'` 启用 SSE 协议。接着,编写客户端代码测试服务功能,确保其正常运行。随后,利用阿里云函数计算服务(FC 3.0)以 Serverless 方式部署该服务,包括创建函数、配置环境变量、添加依赖层以及部署代码。最后,提供了客户端测试方法和日志排查技巧,并展示了如何在不同工具(如 Cherry-Studio、Cline 和 Cursor)中配置云端 MCP 服务。
448 10
借助 serverless 将 MCP 服务部署到云端
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
Serverless MCP 运行时业界首发,函数计算支持阿里云百炼 MCP 服务!阿里云百炼发布业界首个全生命周期 MCP 服务,无需用户管理资源、开发部署、工程运维等工作,5 分钟即可快速搭建一个连接 MCP 服务的 Agent(智能体)。作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力。
165 0
 Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴
AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。
云原生应用实战:基于阿里云Serverless的API服务开发与部署
随着云计算的发展,Serverless架构日益流行。阿里云函数计算(Function Compute)作为Serverless服务,让开发者无需管理服务器即可运行代码,按需付费,简化开发运维流程。本文从零开始,介绍如何使用阿里云函数计算开发简单的API服务,并探讨其核心优势与最佳实践。通过Python示例,演示创建、部署及优化API的过程,涵盖环境准备、代码实现、性能优化和安全管理等内容,帮助读者快速上手Serverless开发。
基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴
基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
126 51
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
云大使 X 函数计算 FC 专属活动上线!享返佣,一键打造 AI 应用
如今,AI 技术已经成为推动业务创新和增长的重要力量。但对于许多企业和开发者来说,如何高效、便捷地部署和管理 AI 应用仍然是一个挑战。阿里云函数计算 FC 以其免运维的特点,大大降低了 AI 应用部署的复杂性。用户无需担心底层资源的管理和运维问题,可以专注于应用的创新和开发,并且用户可以通过一键部署功能,迅速将 AI 大模型部署到云端,实现快速上线和迭代。函数计算目前推出了多种规格的云资源优惠套餐,用户可以根据实际需求灵活选择。

相关产品

  • 函数计算
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等