【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-04-DataIDE基本操作(上)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-04-DataIDE基本操作

一、 实验概述


DataWorks(数据工场,原大数据开发套件DataIDE)是阿里云数加重要的PaaS平台产品,提供数据集成、数据开发、数据管理、数据治理、数据分享等全方位的产品服务,一站式开发管理的界面,帮助企业专注于数据价值的挖掘和探索。


DataWorks基于MaxCompute作为核心的计算、存储引擎,提供了海量数据的离线加工分析、数据挖掘的能力。


通过DataWorks,可对数据进行传输、转换、集成的操作,从不同的数据存储引入数据,对数据进行转化和开发,最后将数据输送到其他数据系统。

二、实验目的

通过创建项目、同步数据、编写SQL程序、配置调度任务、运维监控等环节,实现完整的数据处理流程。


三、 实验场景

模拟Mysql数据库为生产系统,实现从生产系统抽取数据到MaxCompute中,进行数据自动化分析处理。


第 1 章:实验准备


1.1 申请阿里云资源


在弹出的左侧栏中,点击 创建资源 按钮,开始创建实验资源。

资源创建过程需要1-3分钟。完成实验资源的创建后,用户可以通过 实验资源 查看实验中所需的资源信息,例如:阿里云账号等。


1.2 资源环境准备


登录云中沙箱,进入实验,点击“实验资源”,查看所需具体资源。

本实验需开通资源为MaxCompute和RDS。


20200711125546865.png


点击“创建资源”,即可进入实验环境。(由于实验环境一旦开始创建则进入计时阶段,建议学员先基本了解实验具体的步骤、目的,真正开始做实验时再进行创建)

20200711125605975.png


创建资源需要几分钟时间,请耐心等候……

说明:


企业别名:即主账号ID;


子用户名称和子用户密码:登录实验环境以及配置MaxCompute 数据源时需要;


AKID和AK Secret:系统为本用户分配的登录验证密钥信息,在配置客户端及数据源时应用;


控制台url:登录实验环境的地址;


1.3 进入实验环境


步骤一:登录管理控制台

资源开通后,点击左侧菜单栏中“控制台url”链接,进入用户登录页面。


2020071112565245.png


输入资源提供的“子用户名称”和“子用户密码”登录。

登陆成功后,进入管理控制台页面:

步骤二:打开“DataWorks”

展开左侧菜单,点击“产品与服务”,在“大数据(数加)”产品列表中,点击“DataWorks”。

20200711125725188.png

步骤三:创建项目

创建项目需要管理员权限,沙箱实验环境默认创建完项目:

20200711125742668.png


步骤四:进入数据开发

选中项目,点击“进入数据开发”,则进入“数据开发”环境。

20200711125804374.png

第 2 章:实验内容


2.2 数据同步


本小节实验目的:实现从MySQL数据源同步数据到MaxCompute中。

在DataWorks中,通常使用数据集成功能,将您的系统中产生的业务数据定期导入到工作区,通过SQL任务的计算后,再将计算结果定期导出到您指定的数据源中,以便进一步展示或运行使用。

20200711125841176.png


2.1.1 新建RDS数据库


1)创建实例

云中沙箱实验环境已创建完成RDS数据库实例。登录管理控制台,在“产品与服务”列表中,选择“云数据库RDS版”。


20200711125902158.png


选择地域,查看实例。(地域选择请查看实验资源中开通的地域。)


20200711125921506.png


点击实例后面的“管理”,进入管理页面。


20200711125941825.png

2)创建数据库

打开左侧菜单栏中的“数据库管理”菜单,点击“创建数据库”。


20200711130001761.png

输入数据库名称,选择字符集,然后点击创建。

20200711130055420.png


点击“刷新”按钮,查看状态。数据库创建成功后,状态显示“运行中”。

3)创建账号


打开左侧菜单栏的“账号管理”,点击“创建账号”,跳转到账号创建页面。

20200711130122898.png


账号类型选择“普通账号”,设置账号密码,并给授权数据库,然后点击确定。

20200711130144451.png


账号创建成功后,用户账号状态显示“激活”。


20200711130203102.png


4)登录数据库


点击页面上方的“登录数据库”按钮,跳转到数据库登录页面。

20200711130221287.png


输入账号密码,点击登录。

20200711130237825.png


登录成功后,默认显示如下页面。即可进行相关数据库操作。

2020071113025533.png



2.1.2 数据上传到RDS


1)新建表


登录RDS库,在顶部“SQL操作”菜单中,打开“SQL窗口”。


20200711130317918.png


创建表t_dml_data,用于模拟存储业务系统的生产数据。

输入SQL建表语句,点击“执行”,成功后刷新左侧列表,窗口可显示刚建的表。

20200711130337837.png


建表语句如下:


create table IF NOT EXISTS t_dml_data ( detail_id bigint, sale_date datetime, province VARCHAR (20), city VARCHAR (20), product_id bigint, cnt bigint, amt double, PRIMARY KEY (detail_id) );

2)上传本地数据


在顶部“数据方案”菜单栏中,选择“导入”。


20200711130405136.png



点击“新增任务”,选择数据文件类型、数据表名称、数据文件等信息,然后点击“开始”,执行数据导入任务。


20200711130428657.png


如下图,导入任务完成后,会显示数据导入详情。


20200711130446295.png



关闭详情,可看到该任务。

20200711130503267.png


点击左侧列表中的刷新按钮,可看到表,右键选择“打开表”,可看到表中的数据信息。

20200711130520854.png


2.1.3 ODPS中添加RDS数据源

打开数据开发页面,点击“DataWorks”图标, 在下拉列表中选择“数据集成”。

20200711130537833.png


点击左侧菜单中的 “数据源”,然后点击右上角的 “新增数据源”,如下图所示


2020071113055526.png



弹出 “新增数据源”对话框,选择关系型数据库MySQL。

20200711130613103.png

在”新增MySQL数据源”弹出框中填写相关配置项;


◆ 数据源名称:自定义


◆ RDS实例ID: 查看实验资源中的“实例”信息


◆ RDS实例主账号ID: 查看实验资源中的“企业别名”信息


◆ 数据库名:前面章节创建的数据库名称


◆ 用户名:登录数据库的用户名


◆ 密码:登录数据库的密码


20200711130634509.png

点击“测试连通性”,数据库连接测试成功后,点击“完成”。如下图所示:

20200711130652876.png

数据源自动添加到数据源列表中。


20200711130710134.png


2.1.4 同步RDS数据到ODPS

1)新建业务流程

打开数据开发页面。展开左侧菜单,点击“数据开发”,然后新建“业务流程”。


20200711130728179.png


弹出“新建业务流程”对话框,输入业务名称

20200711130746389.png

2)新建数据同步节点


在数据集成中点击“离线同步”。

20200711130808340.png

弹出“新建节点”对话框,输入节点名称,点击“提交”。


20200711130824946.png


3)双击节点,进行数据同步设置。


①选择数据源

设置数据来源,选择MySQL库,rds_lab数据源,t_dml_data表。

设置数据去向,选择ODPS库,odps_first数据源,点击一键生成目标表。

填写目标表的分区信息。本示例中,分区为变量${sdate}

20200711130842773.png


一键生成目标表,注意修改SQL语句的表名,然后点击“新建表”。

20200711130858740.png


②字段映射


源表和目标表进行字段映射。选择“同名映射”。


20200711130920842.png

③设置通道控制信息。

20200711130937123.png


④调度配置

在右侧“参数配置”中给变量赋值:sdate=2017,设置调度周期和时间。

20200711130958907.png

在“调度依赖中”,点击“使用工作空间根节点”,点击“保存”。


20200711131016485.png


4)同步数据

设置完成后,“提交”业务流程。

20200711131038227.png


选择要提交的“节点名称”,填写“备注”,然后点击“提交”。


20200711131057387.png

提交成功后,显示如图所示信息:

20200711131116695.png

点击“运行”,执行数据同步任务

20200711131136116.png

当数据同步完成后,节点状态图表变成如下图所示:


20200711131155575.png

目录
相关文章
|
4月前
|
Oracle 关系型数据库 数据库
阿里云数据库 ACP 问题之阿里云数据库ACP认证与ACA认证有什么区别
阿里云数据库 ACP 问题之阿里云数据库ACP认证与ACA认证有什么区别
185 1
阿里云数据库 ACP 问题之阿里云数据库ACP认证与ACA认证有什么区别
|
5月前
|
分布式计算 安全 大数据
HAS插件式Kerberos认证框架:构建安全可靠的大数据生态系统
在教育和科研领域,研究人员需要共享大量数据以促进合作。HAS框架可以提供一个安全的数据共享平台,确保数据的安全性和合规性。
|
7月前
|
存储 弹性计算 数据库
阿里云云计算工程师ACA认证(Alibaba Cloud Certified Associate - Cloud Computing)考试大纲
介绍阿里云云计算工程师ACA认证(Alibaba Cloud Certified Associate - Cloud Computing)所需具备的知识及学习方法等。
1579 1
|
分布式计算 数据可视化 Hadoop
阿里云大数据ACA及ACP复习题(401~410)
本人备考阿里云大数据考试时自行收集准备的题库,纯手工整理的,能够覆盖到今年7月份,应该是目前最新的,发成文章希望大家能一起学习,不要花冤枉钱去买题库背了,也希望大家能够顺利通关ACA和ACP考试(自己整理解析也需要时间,可能有更新不及时的情况哈)
|
数据采集 分布式计算 数据可视化
阿里云大数据ACA及ACP复习题(251~260)
本人备考阿里云大数据考试时自行收集准备的题库,纯手工整理的,能够覆盖到今年7月份,应该是目前最新的,发成文章希望大家能一起学习,不要花冤枉钱去买题库背了,也希望大家能够顺利通关ACA和ACP考试。
|
大数据
数据治理专业认证CDMP学习笔记(思维导图与知识点)- 第14章大数据与数据科学篇
数据治理专业认证CDMP学习笔记(思维导图与知识点)- 第14章大数据与数据科学篇
123 0
|
SQL 分布式计算 资源调度
大数据问题排查系列-大数据集群开启 kerberos 认证后 HIVE 作业执行失败
大数据问题排查系列-大数据集群开启 kerberos 认证后 HIVE 作业执行失败
|
存储 大数据
大数据数据存储的分布式文件系统的HDFS的核心机制理解的认证机制
在 Hdfs 中,数据的复制和原理是基于块的分布式存储。
117 0
|
1月前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
289 7
|
1月前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
44 2

热门文章

最新文章

下一篇
DataWorks