Apache Superset 1.2.0教程 (二)——快速入门(可视化王者英雄数据)

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 上一篇我们已经成功的安装了superset,那么该如何可视化我们的数据呢?本文将可视化王者英雄的数据,快速的入门Superset。

一、连接数据源


首先确保mysql可以正常连接使用,并且准备好数据。

微信图片_20220528163143.jpg

登录进入superset,选择Databases

微信图片_20220528163147.png

点击右上方+号,新建数据库

微信图片_20220528163149.jpg

superset是通过SQLAlchemy连接数据库的。通过官方文档找到mysql的连接方式。

https://docs.sqlalchemy.org/

MySQL

The MySQL dialect uses mysql-python as the default DBAPI. There are many MySQL DBAPIs available, including MySQL-connector-python and OurSQL:

# default
engine = create_engine('mysql://scott:tiger@localhost/foo')
# mysqlclient (a maintained fork of MySQL-Python)
engine = create_engine('mysql+mysqldb://scott:tiger@localhost/foo')
# PyMySQL
engine = create_engine('mysql+pymysql://scott:tiger@localhost/foo')

这里我们先安装pymysql

pip install pymysql

随后按这个格式设置好连接即可

mysql+pymysql://root:123456@localhost/honor

连接成功!

微信图片_20220528163153.png


二、配置SQL Lab功能


配置好数据库以后,我们还希望对其进行灵活的查询,这时候就得用到SQL Lab功能了。

首先,开启sql lab权限

选择ADVANCED页,将SQL Lab相关权限勾选。

微信图片_20220528163156.jpg

保存可以看到相关权限已开启。

微信图片_20220528163159.jpg

选择Sql Lab菜单下Sql Editor微信图片_20220528163202.jpg

选择Database,Schema,Table。输入sql语句,RUN进行执行,可以看到查询结果。

微信图片_20220528163206.jpg


三、简单可视化


数据源配置完成,并可以正常查询了,下面我们来对数据进行简单的可视化。

首先选择EXPLORE,保存该查询为dataset。微信图片_20220528163209.png

进入到dataset设置页面,这里可以看到默认的类型为Table,我们知道superset支持非常多的可视化图表,本章只做Table类型的,未来会继续讲解每个图表的具体操作。

微信图片_20220528163212.png

选择SAVE,保存为Charts。这样我们刚刚的查询就以图表的形式保存了下来。

微信图片_20220528163215.png

新建一个Dashboard,选择右侧的CHARTS,选择我们建好的图表直接拖拽过来。可以调整下大小与布局。保存。

微信图片_20220528163218.png

保存成功,新建的Dashboard就显示在列表中了。未来我们选择将其嵌入到我们网页中,或者以邮件的形式发送出去。

微信图片_20220528163221.png

这样,我们使用Superset的第一张图表就做好了。

微信图片_20220528163224.png

本文详细讲解了Apache Superset 1.2.0可视化数据的全过程,下一篇我们来进行superset的各种图表的操作与实践。

更多superset相关文章,请关注 大数据流动

踩坑记录

一、连接mysql失败

ERROR: Could not load database driver: MySQLEngineSpec

MySQLdb 不支持 Python 3, 需要使用 pymysql.

安装pymysql:

$ pip install pymysql

使用下面的写法

mysql+pymysql://user:pass@host/databasename

二、安装pymysql失败

请检查网络情况,网速正常情况下没有问题

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
3月前
|
物联网 数据管理 Apache
拥抱IoT浪潮,Apache IoTDB如何成为你的智能数据守护者?解锁物联网新纪元的数据管理秘籍!
【8月更文挑战第22天】随着物联网技术的发展,数据量激增对数据库提出新挑战。Apache IoTDB凭借其面向时间序列数据的设计,在IoT领域脱颖而出。相较于传统数据库,IoTDB采用树形数据模型高效管理实时数据,具备轻量级结构与高并发能力,并集成Hadoop/Spark支持复杂分析。在智能城市等场景下,IoTDB能处理如交通流量等数据,为决策提供支持。IoTDB还提供InfluxDB协议适配器简化迁移过程,并支持细致的权限管理确保数据安全。综上所述,IoTDB在IoT数据管理中展现出巨大潜力与竞争力。
103 1
|
30天前
|
SQL 消息中间件 大数据
大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
45 1
|
30天前
|
SQL 大数据 Apache
大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
72 1
|
30天前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
52 1
|
3月前
|
存储 消息中间件 人工智能
AI大模型独角兽 MiniMax 基于阿里云数据库 SelectDB 版内核 Apache Doris 升级日志系统,PB 数据秒级查询响应
早期 MiniMax 基于 Grafana Loki 构建了日志系统,在资源消耗、写入性能及系统稳定性上都面临巨大的挑战。为此 MiniMax 开始寻找全新的日志系统方案,并基于阿里云数据库 SelectDB 版内核 Apache Doris 升级了日志系统,新系统已接入 MiniMax 内部所有业务线日志数据,数据规模为 PB 级, 整体可用性达到 99.9% 以上,10 亿级日志数据的检索速度可实现秒级响应。
AI大模型独角兽 MiniMax 基于阿里云数据库 SelectDB 版内核 Apache Doris 升级日志系统,PB 数据秒级查询响应
|
2月前
|
存储 大数据 数据挖掘
【数据新纪元】Apache Doris:重塑实时分析性能,解锁大数据处理新速度,引爆数据价值潜能!
【9月更文挑战第5天】Apache Doris以其卓越的性能、灵活的架构和高效的数据处理能力,正在重塑实时分析的性能极限,解锁大数据处理的新速度,引爆数据价值的无限潜能。在未来的发展中,我们有理由相信Apache Doris将继续引领数据处理的潮流,为企业提供更快速、更准确、更智能的数据洞察和决策支持。让我们携手并进,共同探索数据新纪元的无限可能!
136 11
|
2月前
|
Java API Apache
从零到英雄的蜕变:如何用Apache Wicket打造你的第一个Web应用——不仅是教程,更是编程之旅的启航
【9月更文挑战第4天】学习Apache Wicket这一开源Java Web应用框架是一段激动人心的旅程。本文将指导你通过Maven搭建环境,并创建首个“Hello, World!”应用。从配置`pom.xml`到实现`HelloWorldApplication`类,再到`web.xml`的设置,一步步教你构建与部署简单网页。适合初学者快速上手,体验其简洁API与强大组件化设计的魅力。
50 1
|
3月前
|
分布式计算 Serverless 数据处理
EMR Serverless Spark 实践教程 | 通过 Apache Airflow 使用 Livy Operator 提交任务
Apache Airflow 是一个强大的工作流程自动化和调度工具,它允许开发者编排、计划和监控数据管道的执行。EMR Serverless Spark 为处理大规模数据处理任务提供了一个无服务器计算环境。本文为您介绍如何通过 Apache Airflow 的 Livy Operator 实现自动化地向 EMR Serverless Spark 提交任务,以实现任务调度和执行的自动化,帮助您更有效地管理数据处理任务。
195 0
|
3月前
|
消息中间件 Kafka Apache
流计算引擎数据问题之Apache Kafka Streams 没有采用低水印方案如何解决
流计算引擎数据问题之Apache Kafka Streams 没有采用低水印方案如何解决
52 0
|
3月前
|
消息中间件 Kafka Apache
流计算引擎数据问题之Apache Flink 的完整性推理方案设计如何解决
流计算引擎数据问题之Apache Flink 的完整性推理方案设计如何解决
59 0

推荐镜像

更多