通过FastMR自动拉起大数据集群并运行TPCDS任务

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 本场景带您体验如何通过FastMR自动搭建大数据集群并运行TPCDS任务。

通过FastMR自动拉起大数据集群并运行TPCDS任务


1.  创建实验资源

开始实验之前,您需要先创建ECS实例资源。

  • 在实验室页面,单击创建资源
  • (可选)在实验室页面左侧导航栏中,单击云产品资源列表,可查看本次实验资源相关信息(例如IP地址、用户信息等)。

说明 :资源创建过程需要5~7分钟。

2.  下载并安装FastMR至跳板机

本步骤将指导您如何在客户机ECS实例上下载并安装FastMR。

  1. 执行如下命令,下载FastMR.
wget -P /root http://fastmr-beijing.oss-cn-beijing.aliyuncs.com/yunqi_Lab/fastmr.tar.gz
  1. 执行如下命令,解压FastMR。
tar -zxvf fastmr.tar.gz
  1. 执行如下命令,进入fastmr目录。
cd fastmr
  1. 执行如下命令,升级pip3。
pip3 install --upgrade pip
  1. 执行如下命令,安装wheel和setuptools_rust。
pip3 install wheel setuptools_rust
  1. 执行如下命令,安装FastMR。
pip3 install --force-reinstall fastmr-1.0.0-py3-none-any.whl

3.  配置集群

本步骤将指导您如何使用FastMR配置大数据集群和启动,并运行TPC-DS任务。

  1. 执行如下命令,创建配置文件config.ini.example。
vim config/config.ini.example
  1. i键进入编辑模式。
  2. 在config.ini.example文件中,填写代码中master、worker0和worker1的public_ip参数值。

说明 :

  • 本实验场景使用DT模式为示例部署大数据集群。
  • 本实验场景为您提供了三台测试服务器,请您使用云产品资源列表中的ECS节点-1实例作为master,ECS节点-2实例作为worker0,ECS节点-3实例作为worker1,
  • master、worker0和worker1的public_ip参数值请您分别填写为ECS节点-1实例、ECS节点-2实例和ECS节点-3实例的公网地址。

参数说明:

名称

示例值

描述

model

DT

CDT:自动化创建ECS集群、部署大数据环境、完成TPC性能测试。

DT:使用现有ECS集群、部署大数据环境、完成TPC性能测试。

public_ip

/

服务器的公网ip。

usr

root

服务器的用户名。

passwd

Aliyun2022!!

服务器的登录密码。

clustername

example

集群名称。

machines

3

集群机器数量。

skip_setup

False

是否跳过启动集群。

spot

False

[cmd]

total_disk_num

3

实例挂盘总数,包括本地盘和云盘。

[cmd]

local_disk_type

none

本地盘类型。本地盘类型为HDD时不需要配置, SSD本地盘机型配置为nvme。

[hadoop]

version

3.2.1

hadoop版本。

[spark]

version

3.2.1-bin-hadoop3.2

spark版本。

[spark]

executor_core

4

executor核数。

[hive]

version

2.3.7-bin

hive版本。

[tpcxhs]

run

True

是否运行TPCx-HS测试。

True表示运行TPCx-HS测试。

False表示不运行TPCx-HS测试。

[tpcxhs]

scaleFactor

1

TPCx-HS测试的数据量。 其中scaleFactor=1表示100GB数据量,scaleFactor=2表示1TB数据量,scaleFactor=3表示3TB数据量,scaleFactor=4表示10TB数据量,scaleFactor=5表示30TB数据量。

[tpcds]

run

True

是否运行TPC-DS测试。

True表示运行TPC-DS测试。

False表示不运行TPC-DS测试。

[tpcds]

scaleFactor

10

TPC-DS测试的数据量。

其中scaleFactor=10表示10GB数据量,scaleFactor=100表示100GB数据量,scaleFactor=1000表示1TB数据量,scaleFactor=3000表示3TB数据量,scaleFactor =10000表示10TB数据量。

[other]

killAfterRun

False

运行结束是否释放集群。

True表示释放集群。

False表示不释放集群。

[dataLake]

dataLake

False

是否安装数据湖场景。

True表示安装数据湖场景。

False表示不安装数据湖场景。

[dataLake]

alluxioVersion

2.7.1

alluxio版本。

  1. ECS键,退出编辑模式,输入:wq,并按Enter键,保存并退出。
  2. 执行如下命令,启动FastMR,使用FastMR自动搭建大数据集群并运行TPC-DS任务。
python3 fastmr.py config/config.ini.example

返回如下结果,请您耐心等待大约10分钟,当出现TPC-DS is running时,表示大数据集群已搭建完成,正在运行TPC-DS任务。

说明 :

  • TPC-DS任务运行时间较长,建议您先进行下一步骤,查看部分TPC-DS测试结果。
  • 如果您启动FastMR后出现如下图报错,请您执行如下命令后,重新启动FastMR。

exit
  ssh root@[master的public_ip]
  yum remove mysql
  ssh root@[客户机ECS公网地址]

4.  查看TPC-DS测试结果

本步骤将指导您如何查看TPC-DS测试结果。

  1. 在实验页面,单击右上角的 图标,,创建新的终端窗口。

  1. 执行如下命令,查看大数据集群TPC-DS测试结果的Spark History地址。
cat /root/fastmr/target/example/cluster.info

返回如下结果,您可以看到Spark History地址和TPC-DS测试任务时长。

说明 :TPC-DS测试任务时长大约需要30分钟。在TPC-DS测试任务运行时,您可以在Spark History查看TPC-DS测试任务进度。在TPC-DS测试任务结束后,您才能查看测试任务时长。

  1. 在您的本机浏览器中,打开新页签,在地址栏中访问Spark History地址。
  2. 在Spark History页面,单击Show incomplete applications

  1. Spark History页面,单击APP Name为tpcds_datagen的App ID,查看TPC-DS的测试结果。

  1. Spark Jobs页面,您可查看到TPC-DS的测试结果。

说明 :因TPC-DS任务运行时间较长,在TPC-DS任务结束前,您只能看到部分测试结果。


实验链接:https://developer.aliyun.com/adc/scenario/9ff8f0f55c674becbdca5a1be336a613

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
24天前
|
SQL 分布式计算 运维
如何对付一个耗时6h+的ODPS任务:慢节点优化实践
本文描述了大数据处理任务(特别是涉及大量JOIN操作的任务)中遇到的性能瓶颈问题及其优化过程。
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks操作报错合集之如何解决datax同步任务时报错ODPS-0410042:Invalid signature value
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
3月前
|
弹性计算 分布式计算 DataWorks
MaxCompute操作报错合集之运行pyodps报错超时,该如何排查
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
3月前
|
分布式计算 资源调度 DataWorks
MaxCompute产品使用合集之如何增加MC中Fuxi任务的实例数
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
分布式计算 资源调度 DataWorks
MaxCompute操作报错合集之出现“查询运行日志失败”的报错,一般是什么导致的
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
3月前
|
SQL 分布式计算 大数据
MaxCompute操作报错合集之运行DDL任务时出现异常,具体错误是ODPS-0110061,该如何处理
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
3月前
|
分布式计算 大数据 关系型数据库
MaxCompute产品使用合集之如何在MR任务中使用DECIMAL字段
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
SQL 分布式计算 大数据
MaxCompute操作报错合集之执行多条SQL语句时,使用同一个实例来运行,遇到报错,该如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
3月前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之如何提升sql任务并行度
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。

热门文章

最新文章

下一篇
无影云桌面