DataWorks 数据服务 + BI 可视化分析报表 (搭建战报)

本文涉及的产品
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
简介: DataWorks 数据服务提供强大的数据 API 能力,并能与多种业界流行的 BI 报表 (DataV、QuickBI、PowerBI和Grafana) 结合,使用 API 数据源的好处是统一数据接口、统一权限管理、统一数据交换以及数据服务提供强大的各式各样的插件能力 (如缓存插件、流量控制插件、日志脱敏插件、断路器插件、IP访问控制插件、三方鉴权插件等),下文介绍各热门 BI 工具接入 DataWorks 数据服务的操作方式。

前言


DataWorks 数据服务提供强大的数据 API 能力,并能与多种业界流行的 BI 报表结合,使用 API 数据源的好处是统一数据接口、统一权限管理、统一数据交换以及数据服务提供强大的各式各样的插件能力 (如缓存插件、流量控制插件、日志脱敏插件、断路器插件、IP访问控制插件、三方鉴权插件等),下文介绍各热门 BI 工具接入 DataWorks 数据服务的操作方式。


DataV


DataV 已很好地支持 DataWorks 数据服务,能透过下拉框的方式选用已上线 API,且还封装了 API 的 AK。


创建 API


进入 DataWorks 数据服务选用数据引擎、撰写 SQL 并上线一个 API。



创建数据源


进入工作台,于左侧选择数据源、新建数据源,于右侧数据源类型选择 DataWorks 数据服务,进行添加。



搭建报表


进去 DataV 开发报表,从左侧组件库拖拽图型后,对此图型选用我们上述添加的 DataWorks 数据服务的数据源及新增加的 API。




API 参数可使用全局变量 (使用冒号: 呼出全局变量),并用选择器改变全局变量来变化 API 参数,可详见此操作视频介绍。



比较需要注意的是设定过滤器的部份,因为 API 出来的格式是固定的,BI 报表上不一样的图表需要的格式却不一定,我们需要用过滤器将格式整理一下。每个组件会附上查看示例的内容,如折线图的格式为 { "x", "y", "colorField"}。



我们新建一个过滤器将 API 返回的 data 字段转成 { "x", "y", "colorField"} 格式。



整理好格式后,DataWorks 数据服务的接口数据就能放到 DataV 上,并能快速地使用上 DataV 提供的能力。



Quick BI


Quick BI 支持透过 HTTP API 创建数据源,可参考此篇文章


创建 API


数据服务建立脚本 API,这边以统计 Hologres 慢 Query 的 SQL 为例,建立后,测试、提交并发布。


SELECT  usename
        ,status
        ,query_id
        ,datname
        ,command_tag
        ,duration
        ,message
        ,query_start
        ,query_date
        ,query
FROM    hologres.hg_query_log
WHERE   query_start >= '${date_start}'
AND     query_start < '${date_end}'
AND     duration > 500
LIMIT   200
;


创建数据源




Quick BI 连接 API 方式支持抽取 (手动或周期性定时更新数据) 或直连 (支持开启短效缓存,缓存时间可以选择5分钟、10分钟、30分钟),但 DataWorks 数据服务 API 也支持缓存插件,可看场景弹性使用。将数据服务 API 贴入以下表单,建立数据源,日期参数可参考此文章



日期参数变量填入 ${yyyyMMdd} 格式。






创建好数据源后,创建数据集。






从数据集创建数据大屏。



基于数据集使用长条图展示内容。



发布并分享。





Power BI


创建 API


数据服务建立脚本 API,这边以统计 Hologres 慢 Query 的 SQL 为例,建立后,测试、提交并发布。


SELECT  usename
        ,status
        ,query_id
        ,datname
        ,command_tag
        ,duration
        ,message
        ,query_start
        ,query_date
        ,query
FROM    hologres.hg_query_log
WHERE   query_start >= '${date_start}'
AND     query_start < '${date_end}'
AND     duration > 500
LIMIT   200
;

创建数据源


打开 Power BI 后选建立仓库。



选择获取数据及新建数据管道。



选择 Http 数据源,首先填入 Base URL,Base URL 填入数据服务 API 发布 URL 的 Domain 部份,如 http://xxxx-cn-shanghai.alicloudapi.com/




下一步填入 Relative URL,把剩下的 URL 与参数填入,如我们发布的 API URL 为 http://xxxx-cn-shanghai.alicloudapi.com/test_path/321/testholoslow?appcode=xxx&date_start=20240722&date_end=20240724,这边就填入 test_path/321/testholoslow?appcode=xxx&date_start=20240722&date_end=20240724。其他页眉的输入格式为 key: value,如果 Http Header 的需要可在输入框填入。



下一步预览数据,文件格式选择 JSON。



预览数据后,我们选择将数据新建一张表 (dbo.HttpServerFile)。




开始同步数据到新表。



下图为数据同步完成。



可在仓库中查看新表的数据。



上述使用的开始时间与结束时间的值为静态值,如果要使用调度每天更新数据,可以修改使用变量值,变量值的语法可参考。如下图,修改 Relative URL 的内容为 test_path/321/testholoslow?appcode=xxx&date_start=@{utcnow('yyyyMMdd')}&date_end=@{utcnow('yyyyMMdd')},这样就能使用当天做为参数值。



设定数据管道的调度计划后,就能每天定时同步数据到表里。



接著我们在仓库里,针对这张新表建立报告。



选用 data.duration 及 data.query_date 使用柱状图,data.duration 使用计数函数,就能建立每日 Hologres 慢 Query 的数量。



保存后即可分享此报告。



Grafana

创建 API


数据服务建立脚本 API,这边以统计 Hologres 慢 Query 的 SQL 为例,建立后,测试、提交并发布。


SELECT  usename
        ,status
        ,query_id
        ,datname
        ,command_tag
        ,duration
        ,message
        ,query_start
        ,query_date
        ,query
FROM    hologres.hg_query_log
WHERE   query_start >= '${date_start}'
AND     query_start < '${date_end}'
AND     duration > 500
LIMIT   200
;


创建数据源


阿里云 Grafana 控制台新建一个 Grafana 服务 (以下例子使用的是专家版 10U),建立且运行成功后,进入 Grafana 页面。到新建连接的页面,搜索 JSON API 数据源类型并新增此数据源 (最新版是推荐使用 Infinity 类型)。





输入数据服务 API URL,只需输入到网关路径即可,例如 http://domain.com/a/api 的 API 路径,这边我们只需要输入 http://domain.com/a



在这边输入数据服务 API 的 AppCode 至请求的表头里,如果 AppCode 为 1234,其 Value 就输入 APPCODE 1234。




建立好后,点击建立仪表板。



仪表板的部份,首先设定 Fields (格式参考),如下图,我们取 API 返回的 duration 与 query_start 字段,并设定别名为 Duration 与 Date。


$.data[*].duration
$.data[*].query_start



在 Path Tab 设定实际打的 API Path,前缀已经在数据源设定。



在 Params Tab 设定 date_start 与 date_end 的变量参数 (变量格式参考)。


date_start => ${__from:date:YYYYMMDD}
date_end => ${__to:date:YYYYMMDD}



在 Experimental 的 Tab 设定 Group By Date 与 Metric Duration。



在 Transform 的部份设定下 Duration 的值类型。



图型选 Bar gauge



设定标题



使用 Count 做为值



设定最大最小值,这个会决定图型热力颜色。



效果如下图,保存后,发布。



即可获得监控 Hologres 慢 Query 的仪表板。




参考

https://help.aliyun.com/datav/datav-6-0/user-guide/add-a-dataworks-data-source

https://help.aliyun.com/zh/quick-bi/user-guide/create-an-api-data-source

https://grafana.com/blog/2023/08/30/grafana-json-api-how-to-import-third-party-data-sources-in-grafana-cloud/


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标 &nbsp;通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群 &nbsp;企业数据仓库开发人员 &nbsp;大数据平台开发人员 &nbsp;数据分析师 &nbsp;大数据运维人员 &nbsp;对于大数据平台、数据中台产品感兴趣的开发者
目录
相关文章
|
1月前
|
SQL 缓存 分布式计算
阿里云连续五年入选Gartner®分析和商业智能平台魔力象限,中国唯一
Gartner® 正式发布《分析与商业智能平台魔力象限》报告(Magic Quadrant™ for Analytics and Business Intelligence Platforms),阿里云成为唯一入围该报告的中国厂商,被评为“挑战者”(Challengers)。这也是阿里云连续五年入选该报告。
|
3天前
|
机器学习/深度学习 算法 数据挖掘
如何利用 BI 工具分析客户流失原因?
如何利用 BI 工具分析客户流失原因?
18 10
|
15天前
|
分布式计算 大数据 BI
ClickHouse与大数据生态整合:从ETL到BI报表
【10月更文挑战第27天】在这个数据驱动的时代,企业越来越依赖于数据来做出关键决策。而高效的数据处理和分析能力则是支撑这一需求的基础。作为一位数据工程师,我有幸参与到一个项目中,该项目旨在利用ClickHouse与Hadoop、Spark、Flink等大数据处理框架的整合,构建一个从数据提取(Extract)、转换(Transform)、加载(Load)到最终生成商业智能(BI)报表的全流程解决方案。以下是我在这个项目中的经验和思考。
31 1
|
17天前
|
人工智能 供应链 搜索推荐
大数据分析:解锁商业智能的秘密武器
【10月更文挑战第31天】在信息爆炸时代,大数据分析成为企业解锁商业智能的关键工具。本文探讨了大数据分析在客户洞察、风险管理、供应链优化、产品开发和决策支持等方面的应用,强调了明确分析目标、选择合适工具、培养专业人才和持续优化的重要性,并展望了未来的发展趋势。
|
1月前
|
缓存 数据可视化 BI
帆软BI 模仿一个可视化护理软件大屏 (三百六十行 行行fine BI)
帆软BI 模仿一个可视化护理软件大屏 (三百六十行 行行fine BI)
30 0
|
3月前
|
数据可视化 BI Windows
这两个BI可视化软件如何选择?亲测推荐
这两个BI可视化软件如何选择?亲测推荐
|
3月前
|
数据采集 运维 DataWorks
DataWorks产品使用合集之打开quickbi报表时很慢,该怎么办
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
3月前
|
分布式计算 DataWorks Java
DataWorks产品使用合集之如何获取数据服务API的源数据
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
分布式计算 运维 DataWorks
DataWorks产品使用合集之如何查看数据服务API发布后的服务端日志
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
6月前
|
传感器 数据可视化 搜索推荐
瓴羊Quick BI助力深圳光明环境水务公司举办水务数据应用大会暨第二届“光环杯”BI应用大赛
瓴羊Quick BI助力深圳光明环境水务公司举办水务数据应用大会暨第二届“光环杯”BI应用大赛
132 0

热门文章

最新文章

相关产品

  • 大数据开发治理平台 DataWorks