数据分析:构建可视化报表服务

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS PostgreSQL,集群系列 2核4GB
简介: 摘要:本手册为北京云栖 Workshop《云数据·大计算:快速搭建互联网在线运营分析平台》的《数据分析:构建可视化报表服务》篇而准备。主要阐述如何使用Quick BI制作报表,将前面几个实验处理分析得来的数据进行有效的展现和洞察。

上一步>>数据处理:数据建模与加工

实验背景介绍

本手册为北京云栖 Workshop《云数据·大计算:快速搭建互联网在线运营分析平台》的《数据分析:构建可视化报表服务》篇而准备。主要阐述如何使用Quick BI制作报表,将前面几个实验处理分析得来的数据进行有效的展现和洞察。

实验目标

承接前述实验加工好的数据表rpt_user_trace_log,通过Quick BI完成网站用户分析画像的仪表板。该表包含了:country、province、city、device_brand、use_time、pv等字段信息。见图表示意链接
5
6

  • 在该仪表板中,将展示用户的核心指标、周期变化、用户地区分布、分布和记录。
  • 并能够根据国家的查询条件,动态更新图表数据内容。

实验涉及大数据产品

实验环境准备

必备条件

  • 确保阿里云账号处于登录状态。
  • 开通Quick BI高级版试用,见帮助文档

进入Quick BI

确保阿里云账号处于登录状态。

  • step1:点击进入Quick BI管理控制台。
    _2017_12_18_15_24_47

_2017_12_18_15_24_56

  • step2:进入到产品首页。进入“默认组织”
    1

第一步:连接数据——添加数据源

《数据处理:数据建模与加工》实验将数据导入云数据库RDS后,可以利用Quick BI添加为数据源进行分析和展示。本章节为了大家快速的掌握Quick BI的使用提前将数据给大家拷贝了一份在官方的RDS里,大家只需要配置即可用。

  • step1:选择空间默认空间,点击数据源进入数据源列表页。

[说明] 数据量千万级别,响应速度秒级。Quick BI支持MaxCompute和RDS数据源,这次演示推荐RDS(MySQL)。

  • step2:点新建数据源,选择并点击(RDS)MySQL
    点击MySQL
  • step3:配置 MySQL 数据源,并点击 测试连通性 ,待连通性测试通过后,点击 添加 保存现有配置信息。
    配置MySQL

RDS for MySQL数据源配置信息如下:

  • 显示名称:workshop
  • 数据库地址: rm-bp1z69dodhh85z9qa.mysql.rds.aliyuncs.com
  • 端口:3306
  • 数据库:workshop
  • 用户名:workshop
  • 密码:workshop#2017
  • step4:点击数据源列表页中workshop数据源这行,显示该数据源下的数据表,找到表rpt_user_trace_log,并点击创建数据集按钮生成数据集。并“确定”跳转到数据集页面。
    2

4

第二步:编辑数据集

说明:

  1. 将对表的加工过程固化保存下来以避免重复操作。
  2. 常见加工:维度、度量的切换、修改维度的类型、 增加计算字段、创建层次结构、修改字段的数据类型、更改度量聚合方式、 制作关联模型。
  • step1:进入数据集的列表页,进入“我的数据集”文件夹;点击名称,进入编辑数据集页面。
    3
  • step2:转换字段的维度类型

    • 选择access_date字段->右键->维度类型切换->日期(源数据格式)->yyyyMMdd。如下图所示:
      _2017_12_18_16_14_39
    • 转换包含地理信息的字段的维度类型(一般字段不需要转换)。选择province字段->右键->维度类型切换->地理信息->省。
      _2017_12_18_16_13_25
    • 选择city字段->右键->维度类型切换->地理信息->省/直辖市。如下图所示:
      _2017_12_18_16_13_39
    • 转换成功后,在左侧维度栏中会看到region字段前多一个地理位置图标,如下图所示:
  • step3:新建层系。选择province字段->右键->新建层系结构,

    • _2017_12_18_16_13_48
    • 弹出提示框,点击确定。
    • 然后把 city字段移到province层次结构 的树下,如图所示
      7
  • step4:点击保存,保存数据集。然后点击"返回"进入数据集列表页。

第三步:制作仪表板

与上一节衔接,将分析结果固化为可视化报表。随着数据的更新,报表可视化展现最新数据。我们把这个过程叫制作仪表板。

制作思路:确定内容->确定布局和样式->制作图表->实现动态联动查询。

step1:点击rpt_user_trace_log后面的新建仪表板,进入仪表板编辑页
10

或者点击主导航上的仪表板菜单,点击新建下拉菜单下的新建仪表板按钮,就可以开始创建一个仪表板。

step2:指标卡,从仪表板空间中向空白区拖入2个指标卡,调整布局成一排。

  • 指标卡一:选择数据来源为来自数据集rpt_user_trace_log,选择度量为pv,点击更新
  • 指标卡二:选择数据来源为来自数据集rpt_user_trace_log,选择度量为uv,点击更新
    11

step3:趋势图,将图表区域内的线图拖拽左侧画布,

  • 并配置选择数据来源为来自数据集rpt_user_trace_log,选择维度为device(设备)、度量为pv,点击更新图表, 结果如下:
    业务目的:最近7天的查看趋势

14

step4:色彩地图,点击图表区域内的色彩地图,并选择数据源来源为来自数据集rpt_user_trace_log,选择维度为province(地区)、度量为pv,选择完成后点击更新图表按钮,结果如下:
15

业务目的:查看访问用户的地域分布情况。

step5:向画布中拖入控件区域内的查询控件放在第一行。拖动结束后,设置查询条件对应的字段、作用范围和样式:

step5.1:首先将前面制作好的色彩地图、曲线图的标题依次改为,全国地区分布、最近7天趋势。

step5.2:增加查询条件日期 access_date 和country。接着,点击并设置查询条件对应到哪个字段和作用范围(上述配置的两个控件名称):变化的时候能影响到哪些图表控件。选择access_date到组件两个指标卡最近7天趋势,选择country控制所有的图表

step5.3:然后设置查询条件的显示样式,设置country为枚举类型复选框样式,默认中国。设置access_date 默认*日期-绝对时间,选中日期框为20171213。点击"查询"页面生效。
[注意]鼠标选中查询条件的输入框后,样式设置界面才会出现。

step6:点击保存仪表板,名称为云栖大会workshop
保存仪表板

step7:点击预览仪表板,预览验证。

修改时间日期为20171211,看仪表板的各个区块的图表的数据是否随着查询条件的变化而变化。

第四步:制作数据门户

恭喜各位已经完成了数据采集、处理到展现的链路。更多的关于Quick BI的信息,详见官网Quick BI

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
2月前
|
消息中间件 数据挖掘 Kafka
Apache Kafka流处理实战:构建实时数据分析应用
【10月更文挑战第24天】在当今这个数据爆炸的时代,能够快速准确地处理实时数据变得尤为重要。无论是金融交易监控、网络行为分析还是物联网设备的数据收集,实时数据处理技术都是不可或缺的一部分。Apache Kafka作为一款高性能的消息队列系统,不仅支持传统的消息传递模式,还提供了强大的流处理能力,能够帮助开发者构建高效、可扩展的实时数据分析应用。
113 5
|
3月前
|
机器学习/深度学习 数据采集 数据可视化
Python 数据分析:从零开始构建你的数据科学项目
【10月更文挑战第9天】Python 数据分析:从零开始构建你的数据科学项目
71 2
|
3月前
|
数据采集 机器学习/深度学习 数据可视化
构建高效数据分析系统的关键技术
【10月更文挑战第5天】构建高效数据分析系统的关键技术
63 0
|
3月前
|
数据采集 数据可视化 数据挖掘
基于Python的数据分析与可视化实战
本文将引导读者通过Python进行数据分析和可视化,从基础的数据操作到高级的数据可视化技巧。我们将使用Pandas库处理数据,并利用Matplotlib和Seaborn库创建直观的图表。文章不仅提供代码示例,还将解释每个步骤的重要性和目的,帮助读者理解背后的逻辑。无论你是初学者还是有一定基础的开发者,这篇文章都将为你提供有价值的见解和技能。
278 0
|
1月前
|
数据采集 监控 搜索推荐
用户画像构建:年度数据分析的用户视角
在数据驱动的时代,年度数据分析对企业战略规划和运营优化至关重要。本文从数据收集、预处理、分析、可视化到应用实践,全面探讨如何通过年度数据分析实现业务增长,助力企业精准决策。通过构建全面的数据源体系、清洗整合数据、洞察趋势、发现机会,并借助数据可视化工具,最终将数据转化为实际行动,持续优化企业运营。
|
1月前
|
DataWorks 数据挖掘 大数据
方案实践测评 | DataWorks集成Hologres构建一站式高性能的OLAP数据分析
DataWorks在任务开发便捷性、任务运行速度、产品使用门槛等方面都表现出色。在数据处理场景方面仍有改进和扩展的空间,通过引入更多的智能技术、扩展数据源支持、优化任务调度和可视化功能以及提升团队协作效率,DataWorks将能够为企业提供更全面、更高效的数据处理解决方案。
|
2月前
|
存储 数据可视化 数据挖掘
使用Python进行数据分析和可视化
本文将引导你理解如何使用Python进行数据分析和可视化。我们将从基础的数据结构开始,逐步深入到数据处理和分析的方法,最后通过实际的代码示例来展示如何创建直观的数据可视化。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有价值的见解和技巧。让我们一起探索数据的世界,发现隐藏在数字背后的故事!
104 5
|
2月前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python进行数据分析和可视化
【10月更文挑战第42天】本文将介绍如何使用Python进行数据分析和可视化。我们将从数据导入、清洗、探索性分析、建模预测,以及结果的可视化展示等方面展开讲解。通过这篇文章,你将了解到Python在数据处理和分析中的强大功能,以及如何利用这些工具来提升你的工作效率。
|
2月前
|
SQL 存储 数据挖掘
快速入门:利用AnalyticDB构建实时数据分析平台
【10月更文挑战第22天】在大数据时代,实时数据分析成为了企业和开发者们关注的焦点。传统的数据仓库和分析工具往往无法满足实时性要求,而AnalyticDB(ADB)作为阿里巴巴推出的一款实时数据仓库服务,凭借其强大的实时处理能力和易用性,成为了众多企业的首选。作为一名数据分析师,我将在本文中分享如何快速入门AnalyticDB,帮助初学者在短时间内掌握使用AnalyticDB进行简单数据分析的能力。
71 2
|
2月前
|
数据采集 数据可视化 数据挖掘
使用Python进行数据分析和可视化
【10月更文挑战第33天】本文将介绍如何使用Python编程语言进行数据分析和可视化。我们将从数据清洗开始,然后进行数据探索性分析,最后使用matplotlib和seaborn库进行数据可视化。通过阅读本文,你将学会如何运用Python进行数据处理和可视化展示。