使用EMR+DLF+OSS-HDFS进行数据湖分析

简介: 本实验通过使用EMR,搭建EMR集群,对OSS-HDFS进行数据湖分析

使用EMR+DLF+OSS-HDFS进行数据湖分析


1. 创建实验资源

开始实验之前,您需要先创建相关实验资源。

  1. 在云起实验室,单击创建资源
  2. (可选)在实验室页面左侧导航栏中,单击云产品资源列表,可查看本次实验资源相关信息(例如IP地址、用户信息等)。 说明:资源创建过程需要5~8分钟。

2. 准备实验环境

操作原理:

用实验分配的RAM用户登录到阿里云管控台,在OSS管控台的数据湖管理中,为实验提供的Bucket开通HDFS服务,作为后续要创建的数据表的存储地址。同时,创建好OSS文件夹供后续实验存储jar包使用。

操作目的:

学习如何为OSS Bucket开通HDFS服务,便于后续体验OSS-HDFS数据湖能力。

用实验分配的子账号登录阿里云管控台

  1. 打开Chromium网页浏览器,输入实验分配的用户名和密码,登录阿里云管控台

为OSS Bucket开通HDFS服务

  1. 复制下方地址,在Chromium网页浏览器打开新页签,粘贴并访问对象存储OSS管控台。
https://oss.console.aliyun.com/bucket
  1. 在左侧导航栏中,单击Bucket列表

  1. 搜索实验为自己分配的Bucket。

  1. 点击进入以实验室子账号为名的Bucket,选择进入OSS Bucket的数据湖管理下的HDFS服务,单击开通HDFS服务。

3. 通过EMR管控台,登录集群ECS命令终端

操作原理:

进入EMR管控台,找到集群节点组,登录集群ECS命令终端

操作目的:

学习如何使用EMR管控台,以及如何登录到集群ECS实例。

在EMR管控台找到实验所分配集群对应的ECS实例

  1. 双击打开远程桌面的Chromium网页浏览器
  2. 在RAM用户登录框中单击下一步,并复制粘贴页面左上角的子用户密码用户密码输入框,单击登录
  3. 复制下方地址,在Chromium网页浏览器打开新页签,粘贴并访问EMR管控台。
https://emr-next.console.aliyun.com/#/region/cn-shanghai/resource/all/overview

  1. 找到实验为自己分配的集群,点击进入节点管理

  1. 在节点管理中,展开master节点,点击下方的ECS ID,进入ECS管控台

在ECS管控台进入实例命令终端

  1. 在ECS管控台点击“远程连接”进入实例远程连接页面

  1. 点击立即登录

  1. 选择证书认证,把云产品资源面板的 “密钥对私钥” 粘贴到秘钥处。点击确定。

  1. 进入实例页面

4. 熟悉OSS-HDFS操作,并创建目录

熟悉OSS-HDFS操作,并创建目录

操作原理:

使用Hadoop Shell命令操作OSS-HDFS,上传文件,创建目录,查看文件或目录信息,获取文件或目录大小。

操作目的:

学习如何在EMR集群命令终端上,用hadoop shell命令操作OSS-HDFS。同时创建后续实验需要的文件目录。

通过Hadoop Shell命令访问OSS-HDFS

  1. 通过ls命令,确认当前目录下是否有logtail.sh文件。如有,可继续第二步。
ls

如果没有,可通过vim命令快速建一个文件。

vim test.txt

  1. 选择当前目录下的内容,上传到自己的Bucket下,此处以logtail.sh为例。并创建dir文件夹。

注意:脚本中的Bucket名称(u-5stubb6d)要改为实验为自己分配的Bucket

# 上传文件
hadoop fs -put logtail.sh oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/
# 新建目录
hadoop fs -mkdir oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/dir/

  1. 查看文件或目录信息
hadoop fs -ls oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/

  1. 获取文件或目录大小
hadoop fs -du oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/

5. 通过Hive建库建表,做聚和分析

操作原理:

通过Hive在本地集群HDFS上建库,在OSS-HDFS上建表,插入数据做聚和分析。

操作目的:

学习如果在集群上使用HiveSQL,建库建表以及简单的数据分析。学习如何把表建在OSS-HDFS上。

进入Hive命令行

  1. 执行以下命令,切换为hadoop用户。
su hadoop
  1. 执行以下命令,进入Hive命令行。
hive

建库建表

  1. 创建库,本文示例中的库以testdb为例介绍。
create database if not exists testdb;

当返回信息包含OK时,表示创建库testdb成功。以下说明成功在集群本地hdfs上建立数据库。

  1. 创建表,本文示例中的表以t为例介绍。

注意:脚本中的Bucket名称(u-5stubb6d)要改为实验为自己分配的Bucket

use testdb;
create table if not exists t (id bigint, value string) location 'oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/dir/';
  1. 查看表信息,看到location为自己的oss-hdfs Bucket,说明成功在oss-hdfs上创建表。
desc formatted t;

  1. 插入记录
insert into table t select 1, 'value-1';

当返回信息包含OK时,表示插入信息成功。

  1. 查询表中的前10条信息。预期会返回信息刚刚插入的记录
select * from t limit 10;

SQL操作

  1. 再依次插入2条记录
insert into table t select 2, 'value-2';
insert into table t select 11, 'value-1';
  1. 聚合操作
select value, count(id) from t group by value;

返回信息如下所示。

6. 在DLF查看元数据

操作原理:

在DLF上,查看刚刚创建的数据目录、库、表。

操作目的:

学习如何在DLF上查看在集群上创建的数据目录、库、表。

  1. 复制下方地址,在Chromium网页浏览器打开新页签,粘贴并访问DLF管控台。
https://dlf.console.aliyun.com/cn-shanghai

  1. 点击左侧元数据管理,在数据目录筛选框中,选择实验为自己分配的DLF catalog

  1. 找到自己刚刚创建的数据库"testdb"

  1. 进入该数据库,查到表列表,可以看到刚刚创建的表"t"

实验地址:https://developer.aliyun.com/adc/scenario/f7cf565798e34710acf483ba56e6ebf6

相关实践学习
使用操作系统智能助手OS Copilot解锁操作系统运维与编程
在本实验场景中,将在阿里云ECS上体验OS Copilot产品。OS Copilot是阿里云操作系统团队基于大模型构建的OS智能助手。它具有自然语言问答、辅助命令执行、系统运维调优等功能,帮助用户更好地使用Linux,提升阿里云的使用体验。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
SQL 分布式计算 Serverless
EMR Serverless Spark:一站式全托管湖仓分析利器
本文根据2024云栖大会阿里云 EMR 团队负责人李钰(绝顶) 演讲实录整理而成
910 58
|
SQL 存储 缓存
EMR Serverless StarRocks 全面升级:重新定义实时湖仓分析
本文介绍了EMR Serverless StarRocks的发展路径及其架构演进。首先回顾了Serverless Spark在EMR中的发展,并指出2021年9月StarRocks开源后,OLAP引擎迅速向其靠拢。随后,EMR引入StarRocks并推出全托管产品,至2023年8月商业化,已有500家客户使用,覆盖20多个行业。 文章重点阐述了EMR Serverless StarRocks 1.0的存算一体架构,包括健康诊断、SQL调优和物化视图等核心功能。接着分析了存算一体架构的挑战,如湖访问不优雅、资源隔离不足及冷热数据分层困难等。
|
SQL 流计算 关系型数据库
基于OpenLake的Flink+Paimon+EMR StarRocks流式湖仓分析
阿里云OpenLake解决方案建立在开放可控的OpenLake湖仓之上,提供大数据搜索与AI一体化服务。通过元数据管理平台DLF管理结构化、半结构化和非结构化数据,提供湖仓数据表和文件的安全访问及IO加速,并支持大数据、搜索和AI多引擎对接。本文为您介绍以Flink作为Openlake方案的核心计算引擎,通过流式数据湖仓Paimon(使用DLF 2.0存储)和EMR StarRocks搭建流式湖仓。
1259 5
基于OpenLake的Flink+Paimon+EMR StarRocks流式湖仓分析
|
SQL 分布式计算 Serverless
基于阿里云 EMR Serverless Spark 版快速搭建OSS日志分析应用
基于阿里云 EMR Serverless Spark 版快速搭建OSS日志分析应用
328 0
|
存储 SQL 大数据
从数据存储到分析:构建高效开源数据湖仓解决方案
今年开源大数据迈向湖仓一体(Lake House)时代,重点介绍Open Lake解决方案。该方案基于云原生架构,兼容开源生态,提供开箱即用的数据湖仓产品。其核心优势在于统一数据管理和存储,支持实时与批处理分析,打破多计算产品的数据壁垒。通过阿里云的Data Lake Formation和Apache Paimon等技术,用户可高效搭建、管理并分析大规模数据,实现BI和AI融合,满足多样化数据分析需求。
|
弹性计算 分布式计算 Serverless
全托管一站式大规模数据处理和分析Serverless平台 | EMR Serverless Spark 评测
【7月更文挑战第6天】全托管一站式大规模数据处理和分析Serverless平台 | EMR Serverless Spark 评测
23966 42
|
安全 数据管理 大数据
数据湖的未来已来:EMR DeltaLake携手阿里云DLF,重塑企业级数据处理格局
【8月更文挑战第26天】在大数据处理领域,阿里云EMR与DeltaLake的集成增强了数据处理能力。进一步结合阿里云DLF服务,实现了数据湖的一站式管理,自动化处理元数据及权限控制,简化管理流程。集成后的方案提升了数据安全性、可靠性和性能优化水平,让用户更专注业务价值。这一集成标志着数据湖技术向着自动化、安全和高效的未来迈出重要一步。
389 2
|
分布式计算 大数据 数据处理
【大数据管理新纪元】EMR Delta Lake 与 DLF 深度集成:解锁企业级数据湖的无限潜能!
【8月更文挑战第26天】随着大数据技术的发展,Apache Spark已成为处理大规模数据集的首选工具。亚马逊的EMR服务简化了Spark集群的搭建和运行流程。结合使用Delta Lake(提供ACID事务保证和数据版本控制)与DLF(加强数据访问控制及管理),可以显著提升数据湖的可靠性和性能。本文通过一个电商公司的具体案例展示了如何在EMR上部署集成Delta Lake和DLF的环境,以及这一集成方案带来的几大优势:增强的可靠性、细粒度访问控制、性能优化以及易于管理的特性。这为数据工程师提供了一个高效且灵活的数据湖平台,简化了数据湖的建设和维护工作。
360 1
|
存储 机器学习/深度学习 弹性计算
阿里云EMR数据湖文件系统问题之OSS-HDFS全托管服务的问题如何解决
阿里云EMR数据湖文件系统问题之OSS-HDFS全托管服务的问题如何解决
296 1

热门文章

最新文章