阿里云发布可观测MCP!支持自然语言查询和分析多模态日志

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 阿里云可观测官方发布了Observable MCP Server,提供了一系列访问阿里云可观测各产品的工具能力,包含阿里云日志服务SLS、阿里云应用实时监控服务ARMS等,支持用户通过自然语言形式查询

阿里云可观测官方发布了Observable MCP Server,提供了一系列访问阿里云可观测各产品的工具能力,包含阿里云日志服务SLS、阿里云应用实时监控服务ARMS等,支持用户通过自然语言形式查询SLS 日志信息 和应用实时监控服务 ARMS 的链路数据,以及一些元数据信息。同时任意支持 MCP 协议的智能体助手, 例如Cursor,Cline,Windsurf 以及各类 Agent框架等,企业人员可以更高效率和可靠地使用可观测数据。

Observable MCP Server的实际应用

本次发布 MCP Server 的第一个版本,主要覆盖日志服务 SLS 和应用实时监控服务 ARMS 的产品能力,支持用户通过自然语言形式查询SLS 日志信息 和应用实时监控服务 ARMS 的链路数据,以及一些元数据信息。

场景一: 查询 SLS 日志 信息

假如有一个日志服务 SLS 的 logstore,里面记录了用户访问的日志,用户希望查询最近一天访问量最高的应用是什么,此时用户可以通过自然语言形式查询,比如:模糊查询最近一天某个 logstore下面访问量最高的应用是什么。

  • 分析:
  • 需要判断 logstore 是否存在
  • 获取 logstore 相关结构
  • 根据要求生成查询语句(对于语句用户可确认修改)
  • 执行查询语句
  • 根据查询结果生成响应
  • 使用工具:
  • sls_list_logstores
  • sls_describe_logstore
  • sls_translate_natural_language_to_query
  • sls_execute_query

image.gif 编辑

场景二: 查询 ARMS 某个应用下面响应最慢的几条 Trace

  • 分析:
  • 需要判断应用是否存在
  • 获取应用相关结构
  • 根据要求生成查询语句(对于语句用户可确认修改)
  • 执行查询语句
  • 根据查询结果生成响应
  • 使用工具:
  • arms_search_apps
  • arms_generate_trace_query
  • sls_translate_natural_language_to_query
  • sls_execute_query

image.gif 编辑

场景三: 分析 RUM 用户体验监控一段时间的访问性能

  • 分析:
  • 需要判断应用是否存在
  • 获取应用相关结构
  • 根据要求生成查询语句(对于语句用户可确认修改)
  • 执行查询语句
  • 根据查询结果生成响应
  • 使用工具:
  • sls_translate_natural_language_to_query
  • sls_execute_query

image.gif 编辑

Observable MCP Server 的优势

  1. 多产品的数据访问。使用 Observable MCP Server,用户可以跨多款可观测产品,比如日志服务 SLS,应用实时监控服务 ARMS,云监控 CloudMonitor,Prometheus 监控等,使用自然语言形式访问和分析这些产品的数据。
  2. 多模态数据分析。Observable MCP Server 支持自然语言形式的多模态数据访问和分析,比如日志,指标,链路,告警,应用分析等
  3. 安全性。Observable MCP Server 支持阿里云的 AccessKey 认证,无额外数据上报,确保用户数据的安全性,并且针对每个工具的输入输出有严格的限制和校验, 并且已经做开源:https://github.com/aliyun/alibabacloud-observability-mcp-server

如何使用 Observable MCP Server?

MCP服务地址:https://www.modelscope.cn/mcp/servers/@aliyun/alibabacloud-observability-mcp-server

权限要求

为了确保 MCP Server 能够成功访问和操作您的阿里云可观测性资源,您需要配置以下权限:

  1. 阿里云访问密钥 (AccessKey):
  1. RAM 授权 (重要):
  • 与 AccessKey 关联的 RAM 用户或角色必须被授予访问相关云服务所需的权限。
  • 强烈建议遵循"最小权限原则":仅授予运行您计划使用的 MCP 工具所必需的最小权限集,以降低安全风险。
  • 根据您需要使用的工具,参考以下文档进行权限配置:
  • 日志服务 (SLS):如果您需要使用 sls_* 相关工具,请参考 日志服务权限说明,并授予必要的读取、查询等权限。
  • 应用实时监控服务 (ARMS):如果您需要使用 arms_* 相关工具,请参考 ARMS 权限说明,并授予必要的查询权限。
  • 请根据您的实际应用场景,精细化配置所需权限。

安全与部署建议

请务必关注以下安全事项和部署最佳实践:

  1. 密钥安全:
  • 本 MCP Server 在运行时会使用您提供的 AccessKey 调用阿里云 OpenAPI,但不会以任何形式存储您的 AccessKey,也不会将其用于设计功能之外的任何其他用途。
  1. 访问控制 (关键):
  • 当您选择通过 SSE (Server-Sent Events) 协议 访问 MCP Server 时,您必须自行负责该服务接入点的访问控制和安全防护。
  • 强烈建议将 MCP Server 部署在内部网络或受信环境中,例如您的私有 VPC (Virtual Private Cloud) 内,避免直接暴露于公共互联网。
  • 推荐的部署方式是使用阿里云函数计算 (FC),目前可观测 MCP 服务已支持通过 FC 部署,详细可查看: FC 部署 MCP SERVER。 并配置其网络设置为仅 VPC 内访问,以实现网络层面的隔离和安全。
  • 注意:切勿在没有任何身份验证或访问控制机制的情况下,将配置了您 AccessKey 的 MCP Server SSE 端点暴露在公共互联网上,这会带来极高的安全风险。

安装方式

使用 pip 安装

直接使用 pip 安装即可,安装命令如下:

pip install mcp-server-aliyun-observability

image.gif

安装之后,直接运行即可,运行命令如下:

python -m mcp_server_aliyun_observability --transport sse --access-key-id <your_access_key_id> --access-key-secret <your_access_key_secret>

image.gif

可通过命令行传递指定参数:

  • --transport 指定传输方式,可选值为 ssestdio,默认值为 stdio
  • --access-key-id 指定阿里云 AccessKeyId
  • --access-key-secret 指定阿里云 AccessKeySecret
  • --log-level 指定日志级别,可选值为 DEBUGINFOWARNINGERROR,默认值为 INFO
  • --transport-port 指定传输端口,默认值为 8000,仅当 --transportsse 时有效

AK,SK 也可以从环境变量读取,ALIYUN_ACCESS_KEY_ID=xxxx, ALIYUN_ACCESS_KEY_SECRET=xxxx

MCP Host配置

以 Cursor 为例(Cursor,Cline,Windsurf同理)

Cursor 配置

  1. 打开 Cursor MCP 配置文件,加入以下信息: 比如以 默认的 stdio方式为例
{
  "mcpServers": {
    "aliyun_observability": {
      "command": "python",
      "args": ["-m", "mcp_server_aliyun_observability", "--access-key-id", "xxxxx", "--access-key-secret", "xxxxxx"]
    }
  }
}

image.gif

如果是 sse 方式,则需要提前启动 MCP Server, 并指定 --transport sse 参数,在 MCP Host 配置文件中加入以下信息:

"mcpServers": {
    "mcp_server_aliyun_observability": {
      "url": "http://yourhost:yourport/sse"
    }
  }

image.gif

  1. 确认工具已经成功加载即可提问

image.gif 编辑

CherryStudio 配置-开源的 ChatBot 工具

以 SSE 启动方式为例,transport 端口为 8888,实际使用时需要根据实际情况修改

image.gif 编辑

 

ChatWise 配置

以 SSE 启动方式为例,transport 端口为 8888,实际使用时需要根据实际情况修改

image.gif 编辑

image.gif 编辑

Observable MCP Server 的下一步

  1. 支持更多可观测产品。目前 Observable MCP Server 已经支持日志服务 SLS 和应用实时监控服务 ARMS 的产品能力,后续将支持更多可观测产品,比如云监控,Prometheus 监控等
  2. 全栈数据分析能力。借助于阿里云可观测的全栈数据互联互通能力,借助于统一的数据分析查询语言,只需要一个 MCP 工具即可完成可观测全栈数据分析,不需要去理解 SLS SQL,PromQL 等数据分析语言
目录
相关文章
|
9天前
|
自然语言处理 API 开发工具
端午出游高定:通义灵码+高德 MCP 10 分钟定制出游攻略
本文介绍了如何使用通义灵码编程智能体和高德MCP 2.0制作北京端午3天旅行攻略页面。首先需下载通义灵码AI IDE并获取高德申请的key,通过添加MCP服务、生成travel_tips.html文件完成初步攻略制作。用户可自定义页面风格、固定基础功能页面生成,并扩展MCP服务以满足多样化需求。文章还详细描述了开发专属MCP服务的过程,包括借助通义灵码编写代码、部署服务及调用工具,最终实现个性化旅游攻略生成。此外,提供了相关资料和参考链接,方便读者深入了解和实践。
|
20天前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
本文介绍了阿里集团A+流量分析平台的日志查询优化方案,针对万亿级日志数据的写入与查询挑战,提出基于Flink、Paimon和StarRocks的技术架构。通过Paimon存储日志数据,结合StarRocks高效计算能力,实现秒级查询性能。具体包括分桶表设计、数据缓存优化及文件大小控制等措施,解决高并发、大数据量下的查询效率问题。最终,日志查询耗时从分钟级降至秒级,显著提升业务响应速度,并为未来更低存储成本、更高性能及更多业务场景覆盖奠定基础。
|
12天前
|
自然语言处理 API 开发工具
端午出游高定:通义灵码+高德 MCP 10 分钟定制出游攻略
本文介绍了如何使用通义灵码编程智能体与高德 MCP 2.0 制作北京端午3天旅行攻略页面。首先需下载通义灵码 AI IDE 并获取高德申请的 key,接着通过添加 MCP 服务生成 travel_tips.html 文件,最终在手机端查看已发布上线的攻略。此外还详细说明了利用通义灵码打造专属 MCP 服务的过程,包括开发计划、代码编写、部署及连接服务等步骤,并提供了自由探索的方向及相关资料链接。
325 96
|
24天前
|
人工智能 JSON 自然语言处理
多快好省,Qwen3混合部署模式引爆MCP
本文介绍了MCP(Model Context Protocol)与Qwen3模型的结合应用。MCP通过统一协议让AI模型连接各种工具和数据源,类似AI世界的“USB-C”接口。文中详细解析了MCP架构,包括Host、Client和Server三个核心组件,并说明了模型如何智能选择工具及工具执行反馈机制。Qwen3作为新一代通义千问模型,采用混合专家架构,具备235B参数但仅需激活22B,支持快速与深度思考模式,多语言处理能力覆盖119种语言。文章还展示了Qwen3的本地部署流程,以及开发和调试MCP Server与Client的具体步骤。
447 36
多快好省,Qwen3混合部署模式引爆MCP
|
24天前
|
存储 人工智能 安全
自媒体创作场景实践|通义千问3 + MCP=一切皆有可能
本文介绍了通过MCP(Model Context Protocol)结合通义千问大模型实现跨平台、跨服务的自动化任务处理方案。使用Qwen3-235B-A22B模型,配合ComfyUI生成图像,并通过小红书等社交媒体发布内容,展示了如何打破AI云服务的数据孤岛。具体实践包括接入FileSystem、ComfyUI和第三方媒体Server,完成从本地文件读取到生成图像再到发布的全流程。 方案优势在于高可扩展性和易用性,但也存在大模型智能化不足、MCP Server开发难度较大及安全风险等问题。未来需进一步提升模型能力、丰富应用场景并解决安全挑战,推动MCP在更多领域落地。
466 27
自媒体创作场景实践|通义千问3 + MCP=一切皆有可能
|
22天前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
101 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
18天前
|
弹性计算 自然语言处理 Ubuntu
从0开始在阿里云上搭建基于通义千问的钉钉智能问答机器人
本文描述在阿里云上从0开始构建一个LLM智能问答钉钉机器人。LLM直接调用了阿里云百炼平台提供的调用服务。
从0开始在阿里云上搭建基于通义千问的钉钉智能问答机器人
|
23天前
|
人工智能 测试技术 API
通义灵码 + 魔搭MCP:全流程构建创空间应用
最近,通义灵码上线 MCP(ModelScope Cloud Platform)功能,从之前代码生成及修改的基础功能,到可以使用MCP服务连接更多功能,开发者可以实现从 代码爬取、模型推理到应用部署
411 26
|
24天前
|
存储 JSON API
aipy实战:Deepseek-V3、Hunyuan&Qwen分析618平板攻略
Aipy是一款结合LLM与Python的智能工具,用户通过简单指令即可让LLM分析并生成代码,实时解决问题。本次v0.1.28版本新增联网搜索、案例分享等功能,并引入混元和Qwen模型。测评中,三个模型完成“618平板选购攻略”任务表现各异:deepseek-v3界面精美、信息全面但价格有偏差;hunyuan-turbos-latest信息不全但界面简洁;qwen-plus-latest推荐合理但数据失真。总体而言,Aipy在操作友好性和分析界面上显著提升,适合解决实际问题。

热门文章

最新文章