云上玩转Qwen3系列之三:PAI-LangStudio x Hologres构建ChatBI数据分析Agent应用

简介: PAI-LangStudio 和 Qwen3 构建基于 MCP 协议的 Hologres ChatBI 智能 Agent 应用,通过将 Agent、MCP Server 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了 MCP+OLAP 的智能数据分析能力,使用自然语言即可实现 OLAP 数据分析的查询效果,减少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。

本文详细介绍了如何使用 PAI-LangStudio 和 Qwen3 构建基于 MCP 协议的 Hologres ChatBI 智能 Agent 应用。该应用通过将 Agent、MCP Server 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了 MCP+OLAP 的智能数据分析能力,使用自然语言即可实现 OLAP 数据分析的查询效果,减少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。



一、背景信息

Qwen3

Qwen3 作为 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家 (MOE)模型。基于广泛的训练,Qwen3 在推理、指令跟随、代理能力和多语言支持方面取得了突破性的进展,具有以下关键特性:

  • 独特支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能
  • 显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QWQ (在思考模式下)和 Qwen2.5 指令模型(在非思考模式下)。
  • 擅长 Agent 能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。可与 LangStudio 大模型开发平台无缝集成:结合 MCP Server 服务,增强智能数据分析能力
  • 支持100多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。


PAI-LangStudio - 大模型应用开发平台

大模型& Agent 应用开发平台(PAI-LangStudio)是依托阿里云 PAI 产品核心能力构建的面向企业级用户的一站式大模型应用开发平台。简化了企业级大模型应用的开发流程,同时提供了灵活的可编程能力、实时调试能力与链路追踪的能力,帮助开发者快速构建端到端的 AI 应用。原生兼容支持通义系列 Qwen 系列大模型。LangStudio 专注于提供 LLM 全链路开发部署能力,支持发布有状态、多 Agent 的复杂工作流发布部署成 PAI-EAS 模型服务,并在生产环境提供 API 应用服务

LangStudio Agent 智能体支持调用 MCP Server 通过 HTTP with SSE 或 Streamable HTTP 传输方式使用 MCP 协议来发现和调用工具 Tool Use。


MCP - 大模型协议

模型上下文协议(Model Context Protocol,MCP)是 Anthropic 于 2024 年推出的开源标准,旨在解决大模型与外部工具、数据源的集成难题。其核心作用是通过标准化接口架构,将 AI 模型的决策逻辑与外部资源解耦,形成 "智能大脑 + 外接四肢" 的协同模式。


Hologres - 实时数仓

Hologres 是阿里云自研一站式实时数仓产品,不仅支持海量数据多维分析(OLAP)、高并发低延迟的在线数据服务(Serving),还与达摩院自研高性能向量计算软件库 Proxima 深度整合,支持高性能、低延时、简单易用的向量计算能力。

Hologres MCP Server

Hologres MCP 服务器作为 AI 代理与 Hologres 数据库之间的通用接口,支持 AI 代理与 Hologres 之间的无缝通信,帮助 AI 代理获取 Hologres 数据库元数据并执行 SQL 操作。



二、前提条件

  • 已创建专有网络 VPC、交换机和安全组。具体操作,请参见搭建 IPv4 专有网络创建安全组。需将 Hologres  MCP Server 实例和 LangStudio Agent 运行时配置于同一 Region 内。
  • 对接阿里云 Function AI MCP 服务- Hologres MCP Server
  • 登录 PAI 控制台,在左侧导航栏单击工作空间列表(如无 已有工作空间列表)。在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。如您尚未创建工作空间,请创建工作空间


三、LangStudio 应用流方案-企业部署步骤


步骤一:Model Gallery 部署 Qwen3 模型设置

1. 进入 PAI 控制台 > Model Gallery,选择大语言模型场景。

image.png

2. 根据业务场景选择部署合适的 Qwen3 模型,此实践中选择 Qwen3-8B。  

  • 以下是 Qwen3 系列不同模型的建议配置信息

image.png

  • Agent 节点需要使用到模型的工具调用能力,部署时需要参考模型文档确认打开 tool call 配置,以 SGLang 部署 Qwen3-8B 为例,在启动命令中增加相关配置:

image.png

  • 以下状态表示部署正在进行中:

image.png

3. 单击查看调用信息录部署后的服务访问地址(`base_url`)及 API Token(`api_key`)。  

步骤二:Hologres MCP Server 搭建应用



1. 根据参考手册创建 Hologres 实例(可使用现有 Hologres 实例)

2. 创建 Hologres 数据库,参考手册导入样例数据

3. 登录阿里云-函数计算管控台参考文档创建 Holo MCP Server 服务

image.png

4. 选择 Region,选择访问 Hologres 实例的 RAM Role,填写 Hologres 实例的 Endpoint 端口和数据库,点击部署项目

image.png


5. 项目部署完成后,即生成一个 MCP SSE (Server-Sent Events) 服务

  • 可以在访问地址处找到 MCP SSE 模式对应的 Endpoint

image.png

  • 在配置处找到 SSE 连接所需的 Bearer Token

image.png

6. 为选择的 RAM 赋予数据的查询权限

  • 请参考 Hologres 权限模型,并连接 HoloWeb 检查相应权限。
  • 如果只是查询数据,推荐使用简单权限模型,并对 RAM Role 的账号授予 viewer 权限即可。

步骤三:LangStudio 使用模板构建数据分析 Hologres ChatBI Agent

  1. 在 LangStudio > 新建运行时实例,Agent 智能体的运行调试依赖运行时 Runtime。

image.png

2. 通过 PAI 控制台 > 进入 LangStudio > 新建连接 > 连接类型-通用 LLM 模型服务连接 > 服务提供方- PAI-EAS 模型服务,单击<确定>。

image.png

3. 通过 PAI 控制台 > 进入 LangStudio > 新建应用流 > 新建方式-从模板新建 > 选择模版-智能数据 Agent,单击<确定>。

image.png

确保函数计算对应的 MCP Server 与 LangStudio 属于在同一 Region。否则会导致 VPC 网络不通。

4. 在应用流看板上,完成数据分析 Agent 相关设置。详见 Agent 文档

  • 选择 Agent 策略:FunctionCalling
  • 模型设置:选择步骤2中创建的模型连接
  • 打开对话历史

image.png

  • 按照如下模板配置 MCP 服务配置 (SSE 的域名 Endpoint / Bearer Token)
{
    "mcpServers": {
        "remote-server": {
            "type": "sse",
            "url": "https://xxx.xxx.run/sse",
            "headers": {
                "Authorization": "Bearer xxxx"
            },
            "timeout": 30
        }
    }
}
  • 设置输入变量信息,包括系统提示词USER prompt最大循环次数设置为5次,可以根据需要调整。

image.png


步骤四:通过 LangStudio 运行对话框架进行 Chat 数据分析验证

我们尝试一些问题

MCP 提供了哪些工具呢

image.png

帮我看下数量最多的TOP10的客户

image.png

步骤五:通过 LangStudio 部署 EAS 模型服务,支持 API 调用模型推理能力

image.png

用流开发调试完成后,单击右上角的部署根据需要选择合适的机型以及专有网络,注意 EAS 实例需要使用与应用流中其他服务实例相同的 VPC,以保证安全和网络连通。点击确定 > 跳转到 PAI-EAS 模型服务 查看部署任务。

通过以上步骤,您可快速使用 LangStudio 构建基于 Qwen3 和 Hologres MCP Server 实现智能数据分析 ChatBI Agent 应用,满足专业分析场景需求。

相关链接

相关实践学习
基于Hologres轻量实时的高性能OLAP分析
本教程基于GitHub Archive公开数据集,通过DataWorks将GitHub中的项⽬、行为等20多种事件类型数据实时采集至Hologres进行分析,同时使用DataV内置模板,快速搭建实时可视化数据大屏,从开发者、项⽬、编程语⾔等多个维度了解GitHub实时数据变化情况。
相关文章
|
4月前
|
机器学习/深度学习 人工智能 边缘计算
大模型在医疗领域的应用
🌟蒋星熠Jaxonic,AI开发者,深耕医疗大模型领域。见证代码如何重塑医疗:从影像分析到智能诊断,从药物研发到临床决策。分享技术实践与行业洞察,探索AI赋能健康的时代变革。
大模型在医疗领域的应用
|
4月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
5月前
|
人工智能 缓存 监控
使用LangChain4j构建Java AI智能体:让大模型学会使用工具
AI智能体是大模型技术的重要演进方向,它使模型能够主动使用工具、与环境交互,以完成复杂任务。本文详细介绍如何在Java应用中,借助LangChain4j框架构建一个具备工具使用能力的AI智能体。我们将创建一个能够进行数学计算和实时信息查询的智能体,涵盖工具定义、智能体组装、记忆管理以及Spring Boot集成等关键步骤,并展示如何通过简单的对话界面与智能体交互。
1741 1
|
4月前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
1788 16
构建AI智能体:一、初识AI大模型与API调用
|
4月前
|
人工智能 缓存 自然语言处理
Java与多模态AI:构建支持文本、图像和音频的智能应用
随着大模型从单一文本处理向多模态能力演进,现代AI应用需要同时处理文本、图像、音频等多种信息形式。本文深入探讨如何在Java生态中构建支持多模态AI能力的智能应用。我们将完整展示集成视觉模型、语音模型和语言模型的实践方案,涵盖从文件预处理、多模态推理到结果融合的全流程,为Java开发者打开通往下一代多模态AI应用的大门。
455 41
|
机器学习/深度学习 人工智能 自然语言处理
构建企业级数据分析助手:Data Agent 开发实践
本篇将介绍DMS的一款数据分析智能体(Data Agent for Analytics )产品的技术思考和实践。Data Agent for Analytics 定位为一款企业级数据分析智能体, 基于Agentic AI 技术,帮助用户查数据、做分析、生成报告、深入洞察。由于不同产品的演进路径,背景都不一样,所以只介绍最核心的部分,来深入剖析如何构建企业级数据分析助手:能力边界定义,技术内核,企业级能力。希望既能作为Data Agent for Analytics产品的技术核心介绍,也能作为读者的开发实践的参考。
1164 2
构建企业级数据分析助手:Data Agent 开发实践
|
5月前
|
存储 人工智能 数据可视化
从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现
AI能否从错误中学习?Reflection与Reflexion Agent通过生成-反思-改进循环,实现自我优化。前者侧重内容精炼,后者结合外部研究提升准确性,二者分别适用于创意优化与知识密集型任务。
939 9
从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现
|
4月前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
1121 2
|
4月前
|
人工智能 自然语言处理 监控
58_大模型评估与评测:构建科学的多维度评测体系
在大语言模型(LLM)技术飞速发展的今天,如何科学、全面地评估和评测这些模型的能力已成为学术界和工业界共同关注的核心问题。2025年,大模型生态系统呈现出百花齐放的态势,从参数规模、架构设计到应用场景都出现了多样化的发展路径。在这种背景下,单一的性能指标或评测方法已经无法满足对大模型进行全面评估的需求。
|
4月前
|
存储 运维 监控
57_大模型监控与运维:构建稳定可靠的服务体系
随着大语言模型(LLM)技术的快速发展和广泛应用,如何确保模型在生产环境中的稳定运行、高效服务和安全合规已成为企业和开发者面临的关键挑战。2025年,大模型服务已从实验室走向各行各业的核心业务流程,其运维复杂度也随之呈指数级增长。与传统软件系统不同,大模型服务具有参数规模庞大、计算密集、行为不确定性高等特点,这使得传统的运维监控体系难以满足需求。

相关产品

  • 人工智能平台 PAI