AI Agent MCP 源代码部署Deployment 获得子域名Live URL的0-1教程

简介: 本文介绍如何将AI Agent或MCP服务部署上线,获取免费二级域名(如*.aiagenta2z.com),并在ChatGPT、Claude等客户端中直接使用。涵盖代码准备、入口命令配置、GitHub部署及调试全流程,支持Python/Node.js项目,助力开发者快速实现服务托管与集成。

在这篇博客中,我们将介绍如何把业务开发的 AI Agent 或 MCP 服务部署并且上线获得一个免费的带子域名的 Live URL,比如 `*.aiagenta2z.com/${your_project}`.这样

个性化域名,用户可以在ChatGPT App, Claude Desktop等等客户端上直接使用。

image.png

准备

1. 代码Code Base:已开发完成的 Python/Node.js 项目源码source code 或 GitHub 仓库的URL。

2. agent/mcp 启动入口命令 (Entry point Command):这个命令告诉云服务如何启动Agent/MCP 服务器(例如:uvicorn server:app 或 npm start)。

3. 依赖安装:如何你的项目有依赖包,可以把依赖文件打包到压缩文件里。 Python 项目需准备 requirements.txt 文件,Node.js 项目需准备 package.json 文件。

4. AI Agent & MCP 部署托管平台:本教程使用 aiagenta2z.com x DeepNLP 平台。你可以获得一个免费的二级域名,格式如:${user_name}.aiagenta2z.com/${agent_name}。这个url可以直接在 ChatGPT App、Claude Code 等 AI 客户端中使用的上线 URL。


Tutorial

1. 开发 AI Agent/MCP 代码

这里准备两个实用的 Agent代码示例作为部署Deploy的Demo:


Agent 1:Google Deep Research Agent

技术栈:Google Search V2 API封装、Python MCP Server。

功能:包含 Google Search 和 read_webpage 抓取网页

环境变量 environment variables:Google Search_ACCESS_KEY

entry point  启动命令

uvicorn server:app

最终 Live MCP URL 地址:derekzz.aiagenta2z.com/solar-system_server_python/mcp

源代码地址:https://github.com/AI-Hub-Admin/google-deep-research-agent


Agent 2:ChatGPT App 示例(探索太阳系 solar-system_server_python/)


技术栈:Node.js + MCP UI (参考 OpenAI 示例库)。


Live MCP URL 地址:derekzz.aiagenta2z.com/solar-system_server_python/mcp

功能:探索太阳系行星的网页,工具包含 focus_solar_planet和UI

entry point  启动命令 入口点:

pnpm run build
pnpm run serve &
uvicorn solar-system_server_python.main:app


2. Deployment


2.1 创建或选择部署项目

访问 DeepNLP Agent 部署工作区的 Workspace -> Agent Deployment,或者直接访问Workspace

你可以选择现有项目或创建一个新的 AI service 项目(填写项目名称和元数据)。

每个项目都有一个唯一的 ID 格式为 user_name/project_name,就和github等一样。


最终上线 URL格式:${user_name}.aiagenta2z.com/${project_name}

MCP 端点 (Endpoint):${user_name}.aiagenta2z.com/${project_name}/mcp

AGENT & MCP DEPLOYMENT Workspece.png


2.2 选择项目并填写入口点

以我选择的项目为例:derekzz/solar-system_server_python。


2.3 部署配置

平台提供多种部署方式:部署 GitHub 仓库、直接上传源码、或选择模版。


2.3.1 自定义 Python/JS (以 Agent 1 为例)

我将 Google 深度搜索的代码打包为 google_deep_research_agent.tar.gz 并上传至拖拽区。

部署区域 (Deploy Region):Global

入口点 (Startup Scripts):

uvicorn server:app


提示:压缩包根目录下应包含 ./server.py。云端会根据入口点命令在该目录下执行。

代码逻辑参考: 该应用是我使用 mcp 创建并挂载到 Starlette 的 StreamingHttp 应用。


mcp_app = mcp.streamable_http_app()
mcp_app.routes.insert(
    0, Route("/mcp", get_mcp_root_id_handler, methods=["GET"])
)
app = Starlette(
    routes=[
        Mount("/", app=mcp_app),
    ],
    lifespan=lifespan,
)


端口 (Port):留空,云平台会自动分配端口并生成二级域名。



2.3.2 GitHub 源码 (以 Agent 2 为例)

选择 Public URL 模式。

GitHub URL:https://github.com/openai/openai-apps-sdk-examples (如果你想托管私有代码,也可以授权 App 连接你的私有库,实现 Push 后自动部署)

部署区域:Global

Entry Point (Startup Scripts) :

pnpm run build
pnpm run serve &
uvicorn solar-system_server_python.main:app


注意:请将所有启动命令写在同一个文本框内,它们会被作为 entry_point.sh 执行。


1. UI 构建:该示例依赖 /assets 下的 UI,必须通过 pnpm run build 生成。

2. 这个 Agent应用启动2个server:

node的server把 静态文件暴露在 4444 端口,静态文件服务器 (端口 4444)

MCP 服务器提供工具 (端口 8000): python的服务器 ,注意这里 python文件在子目录下 ./solar-system_server_python/main.py, 所以这样启动 ”uvicorn solar-system_server_python.main:app“


后台运行:为防止第一个服务 阻塞流水线,请在 pnpm run serve 后添加 & 符号,最终命令行 "pnpm run serve &"。


2.4 执行部署

点击 Deploy 按钮。你可以在 Deployment History 中查看运行流水线运行状态。 部署过程需要一点时间,尤其是涉及从零开始的 build 命令时。

点击刷新 (Refresh):查看状态是否从 pending(等待中)变为 live(已上线)或 off(失败)。

查看日志与调试 (Debug):如果失败,检查日志中是否缺少依赖或 package.json 配置错误。


image.png


2.5 检查服务器状态

将生成的配置 URL 填入 Cursor、ChatGPT App(开发者模式)或其他 MCP 客户端。如果能看到定义的工具,说明部署成功!

配置文件示例:


{
  "mcpServers": {
    "solar-system-mcp": {
      "url": "https://derekzz.aiagenta2z.com/solar-system_server_python/mcp"
    },
    "google-deep-research-agent": {
      "url": "https://derekzz.aiagenta2z.com/google-deep-research-agent/mcp"
    }
  }
}


最终大功告成!

solar-system-mcp Logout.png

相关文章
|
27天前
|
监控 搜索推荐 物联网
一文读懂LoRA微调原理:大模型高效适配的核心逻辑
通过冻结大模型参数、仅训练少量低秩矩阵,实现高效微调:成本低、周期短、不破坏通用能力。适配医疗、金融等垂直场景,支持多任务复用与边缘部署,成为大模型落地首选技术。
一文读懂LoRA微调原理:大模型高效适配的核心逻辑
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
AgentCPM-Explore开源,4B 参数突破端侧智能体模型性能壁垒
清华、人大、面壁智能与OpenBMB联合推出4B参数智能体模型AgentCPM-Explore,在8大长程任务上实现同尺寸SOTA,性能比肩30B+大模型。支持百轮稳定交互、全流程开源,重塑端侧AI潜能。
254 7
AgentCPM-Explore开源,4B 参数突破端侧智能体模型性能壁垒
|
27天前
|
人工智能 数据可视化 物联网
《显卡 4090 就能跑!小白也能炼出私有大模型》
大模型微调是AI落地的关键技术,通过定向训练让通用模型在特定领域“从会到精”。本文详解微调原理、LoRA/QLoRA等高效方法,并提供评估与实操建议,助力新手快速上手,实现低成本、高精度的模型定制。
339 4
|
18天前
|
测试技术 API
小而强,GLM-4.7-Flash开源
GLM-4.7-Flash正式开源,30B总参、3B激活参数,兼顾性能与效率,支持免费调用。在编程、中文写作、翻译等多场景表现优异,已上线智谱平台,替代GLM-4.5-Flash,提供全新轻量化部署选择。
828 1
|
15天前
|
存储 人工智能 安全
推荐一款可以简单快速部署开源AI模型的桌面软件 Doo AI
Doo AI是一款简洁易用的开源AI模型本地部署工具,支持通义千问3/VL、LLaMA3.1等主流HF格式模型。下载即用,扫描→点击“加载”,可以快速、轻松完成部署;纯本地运行,隐私安全;支持文本对话、图像识别、RAG、角色提示词等实用功能。(239字)
270 4
推荐一款可以简单快速部署开源AI模型的桌面软件 Doo AI
|
3月前
|
开发框架 人工智能 测试技术
字节推出VeAgentBench + veADK,打造可评估、可复现的智能体开发新范式
字节跳动推出VeAgentBench与veADK,打造智能体“开发-评估”闭环。VeAgentBench是覆盖教育、金融、法律等四大场景的开源评估基准,veADK为高效易用的开发框架,支持工具调用、RAG与记忆管理,助力AI智能体可度量、可复现、可落地。
577 11
|
26天前
|
运维 安全 API
内网系统IP离线数据库搭建与维护完整方案
本方案面向无外网内网环境,提供IP离线数据库全生命周期部署指南,涵盖规划、搭建、维护与应急,支持内网IP自定义映射、高并发查询与安全合规,实现数据自主可控、运维闭环,适配多规模企业架构。
|
11天前
|
人工智能
87%的案例学习都停留在"看热闹"——用这套AI指令把案例变成你的决策资产
87%的案例学习只停留在看热闹。分享一套案例分析AI指令,通过结构化分析框架,帮你从案例中提炼可迁移的决策模型,提升学习效率。
141 14
|
20天前
|
API 语音技术
阶跃星辰原生语音推理模型登顶全球权威语音模型榜!开源!
阶跃星辰开源语音推理模型Step-Audio-R1.1登顶全球权威榜单,以96.4%准确率超越Grok、Gemini等,支持“边说边思考”,实现高智能实时交互,现已开放体验。
160 1
 阶跃星辰原生语音推理模型登顶全球权威语音模型榜!开源!
|
19天前
|
人工智能 机器人 物联网
提高商店客流量的智能设备选型指南:从客流分析到数字化运营
实体零售面临客流下滑与运营瓶颈,亟需从“坐商”转向“数据驱动+主动引流”。本文系统解析六大类智能设备技术架构,涵盖客流分析、智能引流、智慧收银、导视系统、数据中台与氛围营造,结合不同业态痛点提供选型策略与实施路径,助力门店实现数字化升级与效率跃迁。