数据分析:构建可视化报表服务

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS PostgreSQL,高可用系列 2核4GB
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 摘要:本手册为北京云栖 Workshop《云数据·大计算:快速搭建互联网在线运营分析平台》的《数据分析:构建可视化报表服务》篇而准备。主要阐述如何使用Quick BI制作报表,将前面几个实验处理分析得来的数据进行有效的展现和洞察。

上一步>>数据处理:数据建模与加工

实验背景介绍

本手册为北京云栖 Workshop《云数据·大计算:快速搭建互联网在线运营分析平台》的《数据分析:构建可视化报表服务》篇而准备。主要阐述如何使用Quick BI制作报表,将前面几个实验处理分析得来的数据进行有效的展现和洞察。

实验目标

承接前述实验加工好的数据表rpt_user_trace_log,通过Quick BI完成网站用户分析画像的仪表板。该表包含了:country、province、city、device_brand、use_time、pv等字段信息。见图表示意链接
5
6

  • 在该仪表板中,将展示用户的核心指标、周期变化、用户地区分布、分布和记录。
  • 并能够根据国家的查询条件,动态更新图表数据内容。

实验涉及大数据产品

实验环境准备

必备条件

  • 确保阿里云账号处于登录状态。
  • 开通Quick BI高级版试用,见帮助文档

进入Quick BI

确保阿里云账号处于登录状态。

  • step1:点击进入Quick BI管理控制台。
    _2017_12_18_15_24_47

_2017_12_18_15_24_56

  • step2:进入到产品首页。进入“默认组织”
    1

第一步:连接数据——添加数据源

《数据处理:数据建模与加工》实验将数据导入云数据库RDS后,可以利用Quick BI添加为数据源进行分析和展示。本章节为了大家快速的掌握Quick BI的使用提前将数据给大家拷贝了一份在官方的RDS里,大家只需要配置即可用。

  • step1:选择空间默认空间,点击数据源进入数据源列表页。

[说明] 数据量千万级别,响应速度秒级。Quick BI支持MaxCompute和RDS数据源,这次演示推荐RDS(MySQL)。

  • step2:点新建数据源,选择并点击(RDS)MySQL
    点击MySQL
  • step3:配置 MySQL 数据源,并点击 测试连通性 ,待连通性测试通过后,点击 添加 保存现有配置信息。
    配置MySQL

RDS for MySQL数据源配置信息如下:

  • 显示名称:workshop
  • 数据库地址: rm-bp1z69dodhh85z9qa.mysql.rds.aliyuncs.com
  • 端口:3306
  • 数据库:workshop
  • 用户名:workshop
  • 密码:workshop#2017
  • step4:点击数据源列表页中workshop数据源这行,显示该数据源下的数据表,找到表rpt_user_trace_log,并点击创建数据集按钮生成数据集。并“确定”跳转到数据集页面。
    2

4

第二步:编辑数据集

说明:

  1. 将对表的加工过程固化保存下来以避免重复操作。
  2. 常见加工:维度、度量的切换、修改维度的类型、 增加计算字段、创建层次结构、修改字段的数据类型、更改度量聚合方式、 制作关联模型。
  • step1:进入数据集的列表页,进入“我的数据集”文件夹;点击名称,进入编辑数据集页面。
    3
  • step2:转换字段的维度类型

    • 选择access_date字段->右键->维度类型切换->日期(源数据格式)->yyyyMMdd。如下图所示:
      _2017_12_18_16_14_39
    • 转换包含地理信息的字段的维度类型(一般字段不需要转换)。选择province字段->右键->维度类型切换->地理信息->省。
      _2017_12_18_16_13_25
    • 选择city字段->右键->维度类型切换->地理信息->省/直辖市。如下图所示:
      _2017_12_18_16_13_39
    • 转换成功后,在左侧维度栏中会看到region字段前多一个地理位置图标,如下图所示:
  • step3:新建层系。选择province字段->右键->新建层系结构,

    • _2017_12_18_16_13_48
    • 弹出提示框,点击确定。
    • 然后把 city字段移到province层次结构 的树下,如图所示
      7
  • step4:点击保存,保存数据集。然后点击"返回"进入数据集列表页。

第三步:制作仪表板

与上一节衔接,将分析结果固化为可视化报表。随着数据的更新,报表可视化展现最新数据。我们把这个过程叫制作仪表板。

制作思路:确定内容->确定布局和样式->制作图表->实现动态联动查询。

step1:点击rpt_user_trace_log后面的新建仪表板,进入仪表板编辑页
10

或者点击主导航上的仪表板菜单,点击新建下拉菜单下的新建仪表板按钮,就可以开始创建一个仪表板。

step2:指标卡,从仪表板空间中向空白区拖入2个指标卡,调整布局成一排。

  • 指标卡一:选择数据来源为来自数据集rpt_user_trace_log,选择度量为pv,点击更新
  • 指标卡二:选择数据来源为来自数据集rpt_user_trace_log,选择度量为uv,点击更新
    11

step3:趋势图,将图表区域内的线图拖拽左侧画布,

  • 并配置选择数据来源为来自数据集rpt_user_trace_log,选择维度为device(设备)、度量为pv,点击更新图表, 结果如下:
    业务目的:最近7天的查看趋势

14

step4:色彩地图,点击图表区域内的色彩地图,并选择数据源来源为来自数据集rpt_user_trace_log,选择维度为province(地区)、度量为pv,选择完成后点击更新图表按钮,结果如下:
15

业务目的:查看访问用户的地域分布情况。

step5:向画布中拖入控件区域内的查询控件放在第一行。拖动结束后,设置查询条件对应的字段、作用范围和样式:

step5.1:首先将前面制作好的色彩地图、曲线图的标题依次改为,全国地区分布、最近7天趋势。

step5.2:增加查询条件日期 access_date 和country。接着,点击并设置查询条件对应到哪个字段和作用范围(上述配置的两个控件名称):变化的时候能影响到哪些图表控件。选择access_date到组件两个指标卡最近7天趋势,选择country控制所有的图表

step5.3:然后设置查询条件的显示样式,设置country为枚举类型复选框样式,默认中国。设置access_date 默认*日期-绝对时间,选中日期框为20171213。点击"查询"页面生效。
[注意]鼠标选中查询条件的输入框后,样式设置界面才会出现。

step6:点击保存仪表板,名称为云栖大会workshop
保存仪表板

step7:点击预览仪表板,预览验证。

修改时间日期为20171211,看仪表板的各个区块的图表的数据是否随着查询条件的变化而变化。

第四步:制作数据门户

恭喜各位已经完成了数据采集、处理到展现的链路。更多的关于Quick BI的信息,详见官网Quick BI

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
目录
相关文章
|
2月前
|
监控 安全 数据挖掘
构建自定义电商数据分析API
在电商业务中,构建自定义数据分析API可实现销售、用户行为等指标的实时分析。本文介绍如何设计并搭建高效、可扩展的API,助力企业快速响应市场变化,提升决策效率。
90 0
|
2月前
|
数据采集 数据可视化 搜索推荐
Python数据分析全流程指南:从数据采集到可视化呈现的实战解析
在数字化转型中,数据分析成为企业决策核心,而Python凭借其强大生态和简洁语法成为首选工具。本文通过实战案例详解数据分析全流程,涵盖数据采集、清洗、探索、建模、可视化及自动化部署,帮助读者掌握从数据到业务价值的完整技能链。
350 0
|
4月前
|
人工智能 自然语言处理 数据挖掘
云上玩转Qwen3系列之三:PAI-LangStudio x Hologres构建ChatBI数据分析Agent应用
PAI-LangStudio 和 Qwen3 构建基于 MCP 协议的 Hologres ChatBI 智能 Agent 应用,通过将 Agent、MCP Server 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了 MCP+OLAP 的智能数据分析能力,使用自然语言即可实现 OLAP 数据分析的查询效果,减少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。
|
2月前
|
自然语言处理 安全 数据挖掘
MCP 如何构建企业级数据分析 Agent?
阿里云实时数仓 Hologres,联合函数计算 FC 推出「Hologres + 函数计算 FunctionAI + Qwen 构建企业级数据分析 Agent」方案,帮助用户快速对接 MCP,高效跨越企业级数据分析 Agent 构建困境。
|
3月前
|
人工智能 运维 数据挖掘
一站式智能分析引擎,快速构建企业级数据分析 Agent
本文介绍了一种基于阿里云实时数仓 Hologres 和百炼大模型服务的智能数据分析解决方案。通过 Function AI 提供的 Serverless 平台,企业可快速构建从多源数据接入到业务洞察的端到端流程。方案支持实时数据分析、湖仓直连加速、智能预处理及按需付费模式,大幅降低运维成本并提升效率。同时,文章详细描述了实践部署步骤,包括专有网络配置、Hologres 实例创建、公共数据集导入及应用部署验证等环节,并提供了资源清理指南与参考链接,确保用户能够顺利实施和管理方案。
175 18
|
3月前
|
SQL 存储 缓存
基于 StarRocks + Iceberg,TRM Labs 构建 PB 级数据分析平台实践
从 BigQuery 到开放数据湖,区块链情报公司 TRM Labs 的数据平台演进实践
|
5月前
|
自然语言处理 安全 数据挖掘
Hologres+函数计算+Qwen3,对接MCP构建企业级数据分析 Agent
本文介绍了通过阿里云Hologres、函数计算FC和通义千问Qwen3构建企业级数据分析Agent的解决方案。大模型在数据分析中潜力巨大,但面临实时数据接入与跨系统整合等挑战。MCP(模型上下文协议)提供标准化接口,实现AI模型与外部资源解耦。方案利用SSE模式连接,具备高实时性、良好解耦性和轻量级特性。Hologres作为高性能实时数仓,支持多源数据毫秒级接入与分析;函数计算FC以Serverless模式部署,弹性扩缩降低成本;Qwen3则具备强大的推理与多语言能力。用户可通过ModelScope的MCP Playground快速体验,结合TPC-H样例数据完成复杂查询任务。
|
4月前
|
自然语言处理 安全 数据挖掘
通过 MCP 构建企业级数据分析 Agent
本文介绍了使用阿里云实时数仓 Hologres、函数计算 FC 和通义大模型 Qwen3 构建企业级数据分析 Agent 的方法。通过 MCP(模型上下文协议)标准化接口,解决大模型与外部工具和数据源集成的难题。Hologres 提供高性能数据分析能力,支持实时数据接入和湖仓一体分析;函数计算 FC 提供弹性、安全的 Serverless 运行环境;Qwen3 具备强大的多语言处理和推理能力。方案结合 ModelScope 的 MCP Playground,实现高效的服务化部署,帮助企业快速构建跨数据源、多步骤分解的数据分析 Agent,优化数据分析流程并降低成本。
789 30
|
10月前
|
消息中间件 数据挖掘 Kafka
Apache Kafka流处理实战:构建实时数据分析应用
【10月更文挑战第24天】在当今这个数据爆炸的时代,能够快速准确地处理实时数据变得尤为重要。无论是金融交易监控、网络行为分析还是物联网设备的数据收集,实时数据处理技术都是不可或缺的一部分。Apache Kafka作为一款高性能的消息队列系统,不仅支持传统的消息传递模式,还提供了强大的流处理能力,能够帮助开发者构建高效、可扩展的实时数据分析应用。
493 5
|
11月前
|
机器学习/深度学习 数据采集 数据可视化
Python 数据分析:从零开始构建你的数据科学项目
【10月更文挑战第9天】Python 数据分析:从零开始构建你的数据科学项目
210 2

热门文章

最新文章