原来MaxCompute还能这么玩系列(1)—— 通过Apache Zeppelin 快速实现数据可视化

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 通过简单的几步配置,教你如何快速实现MaxCompute的数据可视化

注:MaxCompute原名ODPS,是阿里云自研的大数据计算平台,文中出现的MaxCompute与ODPS都指代同一平台,不做区分

Zeppelin简介

Zeppelin是一款基于web的notebook工具,它支持以插件的方式接入各种解释器(interpreter),从而使用户能够以特定的语言或数据处理后端来完成交互式查询,并快速实现数据可视化。

部署Zeppelin

首先,你需要在部署的服务器上安装Oracle JDK 1.7,并配置好相应的JAVA_HOME环境变量,这步不做赘述。

接着,我们需要获取Zeppelin,推荐你下载官网最新的发行包

下载后解压到服务器上的某个目录下,比如笔者解压到了本地目录:/Users/emerson/develop_tools/zeppelin-0.6.1-bin-all,该目录即为zeppelin的根目录了。在根目录下执行:

% bin/zeppelin-daemon.sh start
Zeppelin start                                             [  OK  ]
AI 代码解读

这说明zeppelin已经部署成功。

在浏览器中访问zeppelin主页,由于笔者部署在本机,而zeppelin默认启动在8080端口,所以访问的地址是:http://127.0.0.1:8080/, 你将看到类似如下的页面。默认情况下,你已经以匿名的方式访问到zeppelin。

1

配置新的Interpreter

接着,我们来为MaxCompute JDBC创建一个Interpreter。

首先,我们需要下载携带有完整依赖的MaxCompute JDBC的jar包。请从这里获取最新的稳定版:odps-jdbc-1.9-jar-with-dependencies.jar。

然后回到zeppelin页面,用鼠标点击右上角的“anonymous”,在弹出的下拉列表中选择“Interpreter”。

2

你将进入如下页面,然后点击右上角的“+Create”按钮。

3

接着,便进入了解释器的新建页面,如下图:

4

填入Interpreter的名称和分组,分别是“odps”和“jdbc”。

然后增减并修改配置如下:

5

其中 default.user 和 default.password 分别是你在MaxCompute对应的 accessID 和 accessKey 。而 default.url 则是对应的MaxCompute JDBC的URL,请注意替换其中的project名,此处笔者使用的是odpsdemo。

而Dependencies处的artifact填写之前下载的odps-jdbc-1.9-jar-with-dependencies.jar的本地路径。

完成配置后保存并重启该名为odps的Interpreter。

新建notebook

现在,你便可以新建notebook来测试该Interpreter了。

用鼠标点击上方的“Notebook”按钮,并选择“+Create new note”,如下图所示:

6

为新note命名为“odps_jdbc”,如下图:

7

在新的note页面点击右上角的“齿轮”按钮,完成note与新Interpreter的绑定,如下图所示:

8

将名为“odps”的Interpreter选中并拖拽到顶部,作为默认的Interpreter使用。

保存后,即可在note中输入符合MaxCompute SQL语法的SQL,点击运行按钮完成数据查询:

9

实现数据可视化

Zeppelin提供了非常丰富且简单的可视化功能,点击如下图中的可视化选项,完成简单的setting配置,即可看到不同种类的可视化图表了:
10
11
12
13

欢迎加入MaxCompute钉钉群讨论

03ea92a4c1fbb04d443ff8f015c957815055111e

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
楚项
+关注
目录
打赏
0
0
0
5
78897
分享
相关文章
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
197 5
大数据-162 Apache Kylin 全量增量Cube的构建 Segment 超详细记录 多图
大数据-162 Apache Kylin 全量增量Cube的构建 Segment 超详细记录 多图
169 3
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
133 2
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
123 1
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
129 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-157 Apache Kylin 背景 历程 特点 场景 架构 组件 详解
大数据-157 Apache Kylin 背景 历程 特点 场景 架构 组件 详解
138 9
利用.NET进行大数据处理:Apache Spark与.NET for Apache Spark
【10月更文挑战第15天】随着大数据成为企业决策和技术创新的关键驱动力,Apache Spark作为高效的大数据处理引擎,广受青睐。然而,.NET开发者面临使用Spark的门槛。本文介绍.NET for Apache Spark,展示如何通过C#和F#等.NET语言,结合Spark的强大功能进行大数据处理,简化开发流程并提升效率。示例代码演示了读取CSV文件及统计分析的基本操作,突显了.NET for Apache Spark的易用性和强大功能。
265 1
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
196 5
大数据-156 Apache Druid 案例实战 Scala Kafka 订单统计
大数据-156 Apache Druid 案例实战 Scala Kafka 订单统计
149 3
大数据-155 Apache Druid 架构与原理详解 数据存储 索引服务 压缩机制
大数据-155 Apache Druid 架构与原理详解 数据存储 索引服务 压缩机制
193 3

热门文章

最新文章

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 推荐镜像

    更多
    AI助理
    登录插画

    登录以查看您的控制台资源

    管理云资源
    状态一览
    快捷访问

    你好,我是AI助理

    可以解答问题、推荐解决方案等