DataWorks 数据服务 + BI 可视化分析报表 (搭建战报)

本文涉及的产品
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
简介: DataWorks 数据服务提供强大的数据 API 能力,并能与多种业界流行的 BI 报表 (DataV、QuickBI、PowerBI和Grafana) 结合,使用 API 数据源的好处是统一数据接口、统一权限管理、统一数据交换以及数据服务提供强大的各式各样的插件能力 (如缓存插件、流量控制插件、日志脱敏插件、断路器插件、IP访问控制插件、三方鉴权插件等),下文介绍各热门 BI 工具接入 DataWorks 数据服务的操作方式。

前言


DataWorks 数据服务提供强大的数据 API 能力,并能与多种业界流行的 BI 报表结合,使用 API 数据源的好处是统一数据接口、统一权限管理、统一数据交换以及数据服务提供强大的各式各样的插件能力 (如缓存插件、流量控制插件、日志脱敏插件、断路器插件、IP访问控制插件、三方鉴权插件等),下文介绍各热门 BI 工具接入 DataWorks 数据服务的操作方式。


DataV


DataV 已很好地支持 DataWorks 数据服务,能透过下拉框的方式选用已上线 API,且还封装了 API 的 AK。


创建 API


进入 DataWorks 数据服务选用数据引擎、撰写 SQL 并上线一个 API。



创建数据源


进入工作台,于左侧选择数据源、新建数据源,于右侧数据源类型选择 DataWorks 数据服务,进行添加。



搭建报表


进去 DataV 开发报表,从左侧组件库拖拽图型后,对此图型选用我们上述添加的 DataWorks 数据服务的数据源及新增加的 API。




API 参数可使用全局变量 (使用冒号: 呼出全局变量),并用选择器改变全局变量来变化 API 参数,可详见此操作视频介绍。



比较需要注意的是设定过滤器的部份,因为 API 出来的格式是固定的,BI 报表上不一样的图表需要的格式却不一定,我们需要用过滤器将格式整理一下。每个组件会附上查看示例的内容,如折线图的格式为 { "x", "y", "colorField"}。



我们新建一个过滤器将 API 返回的 data 字段转成 { "x", "y", "colorField"} 格式。



整理好格式后,DataWorks 数据服务的接口数据就能放到 DataV 上,并能快速地使用上 DataV 提供的能力。



Quick BI


Quick BI 支持透过 HTTP API 创建数据源,可参考此篇文章


创建 API


数据服务建立脚本 API,这边以统计 Hologres 慢 Query 的 SQL 为例,建立后,测试、提交并发布。


SELECT  usename
        ,status
        ,query_id
        ,datname
        ,command_tag
        ,duration
        ,message
        ,query_start
        ,query_date
        ,query
FROM    hologres.hg_query_log
WHERE   query_start >= '${date_start}'
AND     query_start < '${date_end}'
AND     duration > 500
LIMIT   200
;


创建数据源




Quick BI 连接 API 方式支持抽取 (手动或周期性定时更新数据) 或直连 (支持开启短效缓存,缓存时间可以选择5分钟、10分钟、30分钟),但 DataWorks 数据服务 API 也支持缓存插件,可看场景弹性使用。将数据服务 API 贴入以下表单,建立数据源,日期参数可参考此文章



日期参数变量填入 ${yyyyMMdd} 格式。






创建好数据源后,创建数据集。






从数据集创建数据大屏。



基于数据集使用长条图展示内容。



发布并分享。





Power BI


创建 API


数据服务建立脚本 API,这边以统计 Hologres 慢 Query 的 SQL 为例,建立后,测试、提交并发布。


SELECT  usename
        ,status
        ,query_id
        ,datname
        ,command_tag
        ,duration
        ,message
        ,query_start
        ,query_date
        ,query
FROM    hologres.hg_query_log
WHERE   query_start >= '${date_start}'
AND     query_start < '${date_end}'
AND     duration > 500
LIMIT   200
;

创建数据源


打开 Power BI 后选建立仓库。



选择获取数据及新建数据管道。



选择 Http 数据源,首先填入 Base URL,Base URL 填入数据服务 API 发布 URL 的 Domain 部份,如 http://xxxx-cn-shanghai.alicloudapi.com/




下一步填入 Relative URL,把剩下的 URL 与参数填入,如我们发布的 API URL 为 http://xxxx-cn-shanghai.alicloudapi.com/test_path/321/testholoslow?appcode=xxx&date_start=20240722&date_end=20240724,这边就填入 test_path/321/testholoslow?appcode=xxx&date_start=20240722&date_end=20240724。其他页眉的输入格式为 key: value,如果 Http Header 的需要可在输入框填入。



下一步预览数据,文件格式选择 JSON。



预览数据后,我们选择将数据新建一张表 (dbo.HttpServerFile)。




开始同步数据到新表。



下图为数据同步完成。



可在仓库中查看新表的数据。



上述使用的开始时间与结束时间的值为静态值,如果要使用调度每天更新数据,可以修改使用变量值,变量值的语法可参考。如下图,修改 Relative URL 的内容为 test_path/321/testholoslow?appcode=xxx&date_start=@{utcnow('yyyyMMdd')}&date_end=@{utcnow('yyyyMMdd')},这样就能使用当天做为参数值。



设定数据管道的调度计划后,就能每天定时同步数据到表里。



接著我们在仓库里,针对这张新表建立报告。



选用 data.duration 及 data.query_date 使用柱状图,data.duration 使用计数函数,就能建立每日 Hologres 慢 Query 的数量。



保存后即可分享此报告。



Grafana

创建 API


数据服务建立脚本 API,这边以统计 Hologres 慢 Query 的 SQL 为例,建立后,测试、提交并发布。


SELECT  usename
        ,status
        ,query_id
        ,datname
        ,command_tag
        ,duration
        ,message
        ,query_start
        ,query_date
        ,query
FROM    hologres.hg_query_log
WHERE   query_start >= '${date_start}'
AND     query_start < '${date_end}'
AND     duration > 500
LIMIT   200
;


创建数据源


阿里云 Grafana 控制台新建一个 Grafana 服务 (以下例子使用的是专家版 10U),建立且运行成功后,进入 Grafana 页面。到新建连接的页面,搜索 JSON API 数据源类型并新增此数据源 (最新版是推荐使用 Infinity 类型)。





输入数据服务 API URL,只需输入到网关路径即可,例如 http://domain.com/a/api 的 API 路径,这边我们只需要输入 http://domain.com/a



在这边输入数据服务 API 的 AppCode 至请求的表头里,如果 AppCode 为 1234,其 Value 就输入 APPCODE 1234。




建立好后,点击建立仪表板。



仪表板的部份,首先设定 Fields (格式参考),如下图,我们取 API 返回的 duration 与 query_start 字段,并设定别名为 Duration 与 Date。


$.data[*].duration
$.data[*].query_start



在 Path Tab 设定实际打的 API Path,前缀已经在数据源设定。



在 Params Tab 设定 date_start 与 date_end 的变量参数 (变量格式参考)。


date_start => ${__from:date:YYYYMMDD}
date_end => ${__to:date:YYYYMMDD}



在 Experimental 的 Tab 设定 Group By Date 与 Metric Duration。



在 Transform 的部份设定下 Duration 的值类型。



图型选 Bar gauge



设定标题



使用 Count 做为值



设定最大最小值,这个会决定图型热力颜色。



效果如下图,保存后,发布。



即可获得监控 Hologres 慢 Query 的仪表板。




参考

https://help.aliyun.com/datav/datav-6-0/user-guide/add-a-dataworks-data-source

https://help.aliyun.com/zh/quick-bi/user-guide/create-an-api-data-source

https://grafana.com/blog/2023/08/30/grafana-json-api-how-to-import-third-party-data-sources-in-grafana-cloud/


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标 &nbsp;通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群 &nbsp;企业数据仓库开发人员 &nbsp;大数据平台开发人员 &nbsp;数据分析师 &nbsp;大数据运维人员 &nbsp;对于大数据平台、数据中台产品感兴趣的开发者
目录
相关文章
|
2月前
|
SQL 缓存 分布式计算
阿里云连续五年入选Gartner®分析和商业智能平台魔力象限,中国唯一
Gartner® 正式发布《分析与商业智能平台魔力象限》报告(Magic Quadrant™ for Analytics and Business Intelligence Platforms),阿里云成为唯一入围该报告的中国厂商,被评为“挑战者”(Challengers)。这也是阿里云连续五年入选该报告。
|
1天前
|
数据采集 DataWorks 大数据
开发者评测:DataWorks — 数据处理与分析的最佳实践与体验
阿里云DataWorks是一款集成化的大数据开发治理平台,支持从数据导入、清洗、分析到报告生成的全流程自动化。通过用户画像分析实践,验证了其高效的数据处理能力。DataWorks在电商和广告数据处理中表现出色,提供了强大的任务调度、数据质量监控和团队协作功能。相比其他工具,DataWorks易用性高,与阿里云服务集成紧密,但在API支持和成本优化方面有待提升。总体而言,DataWorks为企业提供了强有力的数据开发和治理支持,尤其适合有阿里云生态需求的团队。
29 17
|
16天前
|
DataWorks 搜索推荐 数据挖掘
DataWorks: 驾驭数据浪潮,解锁用户画像分析新纪元
本文详细评测了DataWorks产品,涵盖最佳实践、用户体验、与其他工具对比及Data Studio新功能。内容涉及用户画像分析、数据管理作用、使用过程中的问题与改进建议,以及Data Studio的新版Notebook环境和智能助手Copilot的体验。整体评价肯定了DataWorks在数据处理和分析上的优势,同时也指出了需要优化的地方。
87 24
|
7天前
|
SQL 分布式计算 DataWorks
DataWorks产品测评|基于DataWorks和MaxCompute产品组合实现用户画像分析
本文介绍了如何使用DataWorks和MaxCompute产品组合实现用户画像分析。首先,通过阿里云官网开通DataWorks服务并创建资源组,接着创建MaxCompute项目和数据源。随后,利用DataWorks的数据集成和数据开发模块,将业务数据同步至MaxCompute,并通过ODPS SQL完成用户画像的数据加工,最终将结果写入`ads_user_info_1d`表。文章详细记录了每一步的操作过程,包括任务开发、运行、运维操作和资源释放,帮助读者顺利完成用户画像分析。此外,还指出了文档中的一些不一致之处,并提供了相应的解决方法。
|
3天前
|
SQL 分布式计算 DataWorks
DataWorks智能交互式数据开发与分析之旅
本次实验将带您进行DataWorks Notebook的快速入门,包含:Notebook新建、多引擎SQL开发与分析、Python开发、交互式分析等,同时,使用DataWorks Copilot体验智能数据开发,体验智能交互式数据探索之旅。
22 2
|
16天前
|
机器学习/深度学习 数据采集 DataWorks
DataWorks产品评测:数据处理与分析的最佳实践
DataWorks是阿里巴巴推出的大数据开发治理平台,支持从数据采集、预处理、存储到分析的全流程操作。本文评测了其在用户画像分析中的应用,包括数据收集、清洗、特征工程、模型训练、结果评估及应用部署等步骤,展示了其在提高数据资产管理效率、支持多种编程语言和技术栈、集成丰富可视化工具等方面的优势。同时,文章也指出了DataWorks在使用过程中的一些不便与问题,并提出了改进建议。
54 17
|
19天前
|
SQL 数据采集 DataWorks
DataWorks产品最佳实践测评:用户画像分析实践
DataWorks作为阿里云提供的一款大数据开发治理平台,以其强大的数据处理能力和便捷的操作界面,在数据处理领域扮演着重要角色。本文将基于个人体验,对DataWorks产品进行最佳实践测评,重点探讨用户画像分析实践,并提出优化建议。
53 11
|
20天前
|
数据采集 DataWorks 搜索推荐
DataWorks产品最佳实践测评:用户画像分析实践
DataWorks产品最佳实践测评:用户画像分析实践
67 3
|
1月前
|
机器学习/深度学习 算法 数据挖掘
如何利用 BI 工具分析客户流失原因?
如何利用 BI 工具分析客户流失原因?
52 10
|
1月前
|
人工智能 供应链 搜索推荐
大数据分析:解锁商业智能的秘密武器
【10月更文挑战第31天】在信息爆炸时代,大数据分析成为企业解锁商业智能的关键工具。本文探讨了大数据分析在客户洞察、风险管理、供应链优化、产品开发和决策支持等方面的应用,强调了明确分析目标、选择合适工具、培养专业人才和持续优化的重要性,并展望了未来的发展趋势。

热门文章

最新文章

相关产品

  • 大数据开发治理平台 DataWorks
  • 下一篇
    DataWorks