使用EMR+DLF+OSS-HDFS进行数据湖分析

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 本实验通过使用EMR,搭建EMR集群,对OSS-HDFS进行数据湖分析

使用EMR+DLF+OSS-HDFS进行数据湖分析


1. 创建实验资源

开始实验之前,您需要先创建相关实验资源。

  1. 在云起实验室,单击创建资源
  2. (可选)在实验室页面左侧导航栏中,单击云产品资源列表,可查看本次实验资源相关信息(例如IP地址、用户信息等)。 说明:资源创建过程需要5~8分钟。

2. 准备实验环境

操作原理:

用实验分配的RAM用户登录到阿里云管控台,在OSS管控台的数据湖管理中,为实验提供的Bucket开通HDFS服务,作为后续要创建的数据表的存储地址。同时,创建好OSS文件夹供后续实验存储jar包使用。

操作目的:

学习如何为OSS Bucket开通HDFS服务,便于后续体验OSS-HDFS数据湖能力。

用实验分配的子账号登录阿里云管控台

  1. 打开Chromium网页浏览器,输入实验分配的用户名和密码,登录阿里云管控台

为OSS Bucket开通HDFS服务

  1. 复制下方地址,在Chromium网页浏览器打开新页签,粘贴并访问对象存储OSS管控台。
https://oss.console.aliyun.com/bucket
  1. 在左侧导航栏中,单击Bucket列表

  1. 搜索实验为自己分配的Bucket。

  1. 点击进入以实验室子账号为名的Bucket,选择进入OSS Bucket的数据湖管理下的HDFS服务,单击开通HDFS服务。

3. 通过EMR管控台,登录集群ECS命令终端

操作原理:

进入EMR管控台,找到集群节点组,登录集群ECS命令终端

操作目的:

学习如何使用EMR管控台,以及如何登录到集群ECS实例。

在EMR管控台找到实验所分配集群对应的ECS实例

  1. 双击打开远程桌面的Chromium网页浏览器
  2. 在RAM用户登录框中单击下一步,并复制粘贴页面左上角的子用户密码用户密码输入框,单击登录
  3. 复制下方地址,在Chromium网页浏览器打开新页签,粘贴并访问EMR管控台。
https://emr-next.console.aliyun.com/#/region/cn-shanghai/resource/all/overview

  1. 找到实验为自己分配的集群,点击进入节点管理

  1. 在节点管理中,展开master节点,点击下方的ECS ID,进入ECS管控台

在ECS管控台进入实例命令终端

  1. 在ECS管控台点击“远程连接”进入实例远程连接页面

  1. 点击立即登录

  1. 选择证书认证,把云产品资源面板的 “密钥对私钥” 粘贴到秘钥处。点击确定。

  1. 进入实例页面

4. 熟悉OSS-HDFS操作,并创建目录

熟悉OSS-HDFS操作,并创建目录

操作原理:

使用Hadoop Shell命令操作OSS-HDFS,上传文件,创建目录,查看文件或目录信息,获取文件或目录大小。

操作目的:

学习如何在EMR集群命令终端上,用hadoop shell命令操作OSS-HDFS。同时创建后续实验需要的文件目录。

通过Hadoop Shell命令访问OSS-HDFS

  1. 通过ls命令,确认当前目录下是否有logtail.sh文件。如有,可继续第二步。
ls

如果没有,可通过vim命令快速建一个文件。

vim test.txt

  1. 选择当前目录下的内容,上传到自己的Bucket下,此处以logtail.sh为例。并创建dir文件夹。

注意:脚本中的Bucket名称(u-5stubb6d)要改为实验为自己分配的Bucket

# 上传文件
hadoop fs -put logtail.sh oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/
# 新建目录
hadoop fs -mkdir oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/dir/

  1. 查看文件或目录信息
hadoop fs -ls oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/

  1. 获取文件或目录大小
hadoop fs -du oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/

5. 通过Hive建库建表,做聚和分析

操作原理:

通过Hive在本地集群HDFS上建库,在OSS-HDFS上建表,插入数据做聚和分析。

操作目的:

学习如果在集群上使用HiveSQL,建库建表以及简单的数据分析。学习如何把表建在OSS-HDFS上。

进入Hive命令行

  1. 执行以下命令,切换为hadoop用户。
su hadoop
  1. 执行以下命令,进入Hive命令行。
hive

建库建表

  1. 创建库,本文示例中的库以testdb为例介绍。
create database if not exists testdb;

当返回信息包含OK时,表示创建库testdb成功。以下说明成功在集群本地hdfs上建立数据库。

  1. 创建表,本文示例中的表以t为例介绍。

注意:脚本中的Bucket名称(u-5stubb6d)要改为实验为自己分配的Bucket

use testdb;
create table if not exists t (id bigint, value string) location 'oss://u-5stubb6d.cn-shanghai.oss-dls.aliyuncs.com/dir/';
  1. 查看表信息,看到location为自己的oss-hdfs Bucket,说明成功在oss-hdfs上创建表。
desc formatted t;

  1. 插入记录
insert into table t select 1, 'value-1';

当返回信息包含OK时,表示插入信息成功。

  1. 查询表中的前10条信息。预期会返回信息刚刚插入的记录
select * from t limit 10;

SQL操作

  1. 再依次插入2条记录
insert into table t select 2, 'value-2';
insert into table t select 11, 'value-1';
  1. 聚合操作
select value, count(id) from t group by value;

返回信息如下所示。

6. 在DLF查看元数据

操作原理:

在DLF上,查看刚刚创建的数据目录、库、表。

操作目的:

学习如何在DLF上查看在集群上创建的数据目录、库、表。

  1. 复制下方地址,在Chromium网页浏览器打开新页签,粘贴并访问DLF管控台。
https://dlf.console.aliyun.com/cn-shanghai

  1. 点击左侧元数据管理,在数据目录筛选框中,选择实验为自己分配的DLF catalog

  1. 找到自己刚刚创建的数据库"testdb"

  1. 进入该数据库,查到表列表,可以看到刚刚创建的表"t"

实验地址:https://developer.aliyun.com/adc/scenario/f7cf565798e34710acf483ba56e6ebf6

相关实践学习
2分钟自动化部署人生模拟器
本场景将带你借助云效流水线Flow实现人生模拟器小游戏的自动化部署
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
28天前
|
SQL 流计算 关系型数据库
基于OpenLake的Flink+Paimon+EMR StarRocks流式湖仓分析
阿里云OpenLake解决方案建立在开放可控的OpenLake湖仓之上,提供大数据搜索与AI一体化服务。通过元数据管理平台DLF管理结构化、半结构化和非结构化数据,提供湖仓数据表和文件的安全访问及IO加速,并支持大数据、搜索和AI多引擎对接。本文为您介绍以Flink作为Openlake方案的核心计算引擎,通过流式数据湖仓Paimon(使用DLF 2.0存储)和EMR StarRocks搭建流式湖仓。
332 4
基于OpenLake的Flink+Paimon+EMR StarRocks流式湖仓分析
|
2月前
|
SQL 分布式计算 Serverless
EMR Serverless Spark:一站式全托管湖仓分析利器
本文根据2024云栖大会阿里云 EMR 团队负责人李钰(绝顶) 演讲实录整理而成
163 2
|
4月前
|
存储 分布式计算 监控
揭秘阿里云EMR:如何巧妙降低你的数据湖成本,让大数据不再昂贵?
【8月更文挑战第26天】阿里云EMR是一种高效的大数据处理服务,助力企业优化数据湖的成本效益。它提供弹性计算资源,支持根据需求调整规模;兼容并优化了Hadoop、Spark等开源工具,提升性能同时降低资源消耗。借助DataWorks及Data Lake Formation等工具,EMR简化了数据湖构建与管理流程,实现了数据的统一化治理。此外,EMR还支持OSS、Table Store等多种存储选项,并配备监控优化工具,确保数据处理流程高效稳定。通过这些措施,EMR帮助企业显著降低了数据处理和存储成本。
142 3
|
4月前
|
安全 数据管理 大数据
数据湖的未来已来:EMR DeltaLake携手阿里云DLF,重塑企业级数据处理格局
【8月更文挑战第26天】在大数据处理领域,阿里云EMR与DeltaLake的集成增强了数据处理能力。进一步结合阿里云DLF服务,实现了数据湖的一站式管理,自动化处理元数据及权限控制,简化管理流程。集成后的方案提升了数据安全性、可靠性和性能优化水平,让用户更专注业务价值。这一集成标志着数据湖技术向着自动化、安全和高效的未来迈出重要一步。
88 2
|
4月前
|
存储 大数据 数据处理
Delta Lake革新浪潮:EMR中的数据湖守护者,如何重塑大数据生态?
【8月更文挑战第26天】Delta Lake是一款开源大数据处理框架,以数据版本控制和ACID事务特性著称,在大数据领域崭露头角。在阿里云EMR平台上,它为用户提供高效可靠的数据处理方式,通过结构化的存储、事务日志实现数据版本控制和回滚。Delta Lake在EMR中实现了ACID事务,简化数据湖操作流程,支持时间旅行查询历史数据版本,优化存储格式提高读取速度,这些优势使其在开源社区和企业界获得广泛认可。
55 2
|
4月前
|
分布式计算 大数据 数据处理
【大数据管理新纪元】EMR Delta Lake 与 DLF 深度集成:解锁企业级数据湖的无限潜能!
【8月更文挑战第26天】随着大数据技术的发展,Apache Spark已成为处理大规模数据集的首选工具。亚马逊的EMR服务简化了Spark集群的搭建和运行流程。结合使用Delta Lake(提供ACID事务保证和数据版本控制)与DLF(加强数据访问控制及管理),可以显著提升数据湖的可靠性和性能。本文通过一个电商公司的具体案例展示了如何在EMR上部署集成Delta Lake和DLF的环境,以及这一集成方案带来的几大优势:增强的可靠性、细粒度访问控制、性能优化以及易于管理的特性。这为数据工程师提供了一个高效且灵活的数据湖平台,简化了数据湖的建设和维护工作。
64 1
|
4月前
|
存储 机器学习/深度学习 弹性计算
阿里云EMR数据湖文件系统问题之OSS-HDFS全托管服务的问题如何解决
阿里云EMR数据湖文件系统问题之OSS-HDFS全托管服务的问题如何解决
|
4月前
|
Java Spring 开发者
掌握Spring事务管理,打造无缝数据交互——实用技巧大公开!
【8月更文挑战第31天】在企业应用开发中,确保数据一致性和完整性至关重要。Spring框架提供了强大的事务管理机制,包括`@Transactional`注解和编程式事务管理,简化了事务处理。本文深入探讨Spring事务管理的基础知识与高级技巧,涵盖隔离级别、传播行为、超时时间等设置,并介绍如何使用`TransactionTemplate`和`PlatformTransactionManager`进行编程式事务管理。通过合理设计事务范围和选择合适的隔离级别,可以显著提高应用的稳定性和性能。掌握这些技巧,有助于开发者更好地应对复杂业务需求,提升应用质量和可靠性。
51 0
|
4月前
|
存储 缓存 数据管理
阿里云EMR数据湖文件系统问题之JindoFS数据孤岛的问题如何解决
阿里云EMR数据湖文件系统问题之JindoFS数据孤岛的问题如何解决
|
7月前
|
存储 SQL 分布式计算
基于Apache Hudi + MinIO 构建流式数据湖
基于Apache Hudi + MinIO 构建流式数据湖
272 1