【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-03-MaxCompute内置函数(上)

简介: 【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-03-MaxCompute内置函数

一、实验概述


大数据计算服务(MaxCompute,原名 ODPS)是一种快速、完全托管的 GB/TB/PB 级数据仓库解决方案。MaxCompute 向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全。

本实验结合实际数据和案例,深入浅出的演示了如何使用MaxCompute的内置函数。


二、实验目标


本实验通过客户端方式进行实验,掌握MaxCompute的内置函数的使用技巧,以及相关注意事项。

完成此实验后,可以掌握的内置函数有:

  1. 数值类函数;
  2. 字符串类函数;
  3. 日期类函数;
  4. 窗口函数;
  5. 聚合函数;
  6. 其他函数;      


三、学习建议


1. 掌握MaxCompute的内置函数的使用技巧以及相关命令的基础操作;
  2. 提前安装 ODPS客户端(下载客户端软件)。


第 1 章:实验简介


1.1 实验简介


一、实验概述


大数据计算服务(MaxCompute,原名 ODPS)是一种快速、完全托管的 GB/TB/PB 级数据仓库解决方案。MaxCompute 向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全。


本实验结合实际数据和案例,深入浅出的演示了如何使用MaxCompute的内置函数。


二、实验目标:


本实验通过客户端方式进行实验,掌握MaxCompute的内置函数的使用技巧,以及相关注意事项。


完成此实验后,可以掌握的内置函数有:

  1. 数值类函数;
  2. 字符串类函数;
  3. 日期类函数;
  4. 窗口函数;
  5. 聚合函数;
  6. 其他函数;      

三、学习建议:


1. 掌握MaxCompute的内置函数的使用技巧以及相关命令的基础操作;
  2. 提前安装 ODPS客户端(下载客户端软件)。


第 2 章:实验准备


2.1 申请MaxCompute资源


在弹出的左侧栏中,点击 创建资源 按钮,开始创建实验资源。

资源创建过程需要1-3分钟。完成实验资源的创建后,用户可以通过 实验资源 查看实验中所需的资源信息,例如:阿里云账号等。


2.2 进入实验环境


1 、申请MaxCompute资源

登录云中沙箱,在实验目录中查询所需实验,进入实验,点击“实验资源”,查看所需具体资源


点击“创建资源”,即可进入实验环境。(由于实验环境一旦开始创建则进入计时阶段,建议学员先基本了解实验具体的步骤、目的,真正开始做实验时再进行创建)

创建资源需要几分钟时间,请耐心等候……

企业别名:即主账号ID;


子用户名称和子用户密码:登录实验环境以及配置MaxCompute 数据源时需要;


AK ID和AK Secret:系统为本用户分配的登录验证密钥信息,在配置客户端及数据源时应用;


控制台url:登录实验环境的地址;

2 、进入实验环境

步骤一:登录管理控制台


资源开通后,点击左侧菜单栏中“控制台url”链接,进入用户登录页面。

输入资源提供的“子用户名称”和“子用户密码”登录。

登陆成功后,进入管理控制台页面:

步骤二:打开“DataWorks”


展开左侧菜单,点击“产品与服务”,在“大数据(数加)”产品列表中,点击“DataWorks”。

步骤三:创建项目


创建项目需要管理员权限,沙箱实验环境默认创建完项目:

步骤四:进入数据开发


选中项目,点击“进入数据开发”,则进入“数据开发”环境。

数据开发界面如下:

20200711114454367.png


2.3 配置odpscmd客户端


步骤1:客户端介质下载 (本实验在附件中提供)


步骤2:解压odpscmd_public.zip 到本目录,如:解压至本地目录 F:\ODPS_DEMO


步骤3:查看本次实验课用到的介质,可以看到如下的文件夹:


bin/ conf/ lib/ plugins/


步骤4:在conf文件夹中有odps_config.ini文件。编辑此文件,填写相关信息:

project_name=<项目名称>
access_id=< AK ID>
access_key=
end_point=http://service.odps.aliyun.com/api (默认)
tunnel_endpoint=http://dt.odps.aliyun.com (默认)
log_view_host=http://logview.odps.aliyun.com (默认)
https_check=true (默认)

步骤5:修改好配置文件后运行bin目录下的odpscmd(在Linux系统下是./bin/odpscmd,Windows下运行./bin/odpscmd.bat),现在可以运行 MaxCompute 命令,如:

20200711114536898.png


注意:项目可以随时根据情况切换,上图表示环境设置成功.


2.4 测试表dual准备


1、展开左侧菜单,点击“临时查询”,然后点击新建“ODPS SQL”。

20200711124101988.png

2、在弹出对话框中,输入“节点名称”,选择“目标文件夹”,点击“提交”。


20200711124120448.png

进入脚本编辑页面,进行脚本开发,创建实验测试表dual,点击运行

CREATE TABLE dual (id BIGINT) LIFECYCLE 10000;

20200711124202309.png

测试表创建成功

2020071112422457.png


往测试表里插入一条数据,输入sql, 选中后点击“运行”。

insertinto table dual select count(1) fromdual;

20200711124333866.png


查看测试表数据内容,输入sql, 选中后点击“运行”。

select * from dual limit 10;

20200711124354268.png

2.5 测试表t_dml准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_dml,点击运行。


CREATE TABLE t_dml(detail_id BIGINT,sale_date datetime,province STRING,city STRING,product_id BIGINT,cnt BIGINT,amt DOUBL);

20200711124446108.png

进入odpscmd交互界面

加载数据 t_dml.csv:

20200711124511659.png


查看数据表数据20200711124550644.png

2.6 测试表t_product准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_product,点击运行。


CREATE TABLE t_product (product_id BIGINT,product_name STRING,category_id BIGINT,category_name STRING,price DOUBLE);

20200711124620486.png

进入odpscmd交互界面

加载数据 t_product.csv:

2020071112470425.png

查看数据表数据

select* from t_product limit 10;

20200711124723733.png


2.7 测试表t_sign准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_sign,点击运行


CREATE TABLE t_sign (id BIGINT,name STRING,height DOUBLE,is_female BOOLEAN,birth_day datetime);

20200711124759306.png

进入odpscmd交互界面

加载数据 t_sign.csv:

20200711124834278.png

20200711124904583.png

查看数据表数据

select* from t_sign limit 10;

20200711124925407.png

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
Oracle 关系型数据库 数据库
阿里云数据库 ACP 问题之阿里云数据库ACP认证与ACA认证有什么区别
阿里云数据库 ACP 问题之阿里云数据库ACP认证与ACA认证有什么区别
616 1
阿里云数据库 ACP 问题之阿里云数据库ACP认证与ACA认证有什么区别
|
JSON 数据可视化 数据挖掘
Polars函数合集大全:大数据分析的新利器
Polars函数合集大全:大数据分析的新利器
1011 1
|
SQL 消息中间件 分布式计算
大数据-115 - Flink DataStream Transformation 多个函数方法 FlatMap Window Aggregations Reduce
大数据-115 - Flink DataStream Transformation 多个函数方法 FlatMap Window Aggregations Reduce
267 0
|
分布式计算 自然语言处理 大数据
MaxCompute操作报错合集之使用pyodps读取全表(百万级),然后对其中某列apply自己定义的分词函数,遇到报错,该如何排查
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
249 5
|
SQL 分布式计算 数据处理
MaxCompute操作报错合集之使用Spark查询时函数找不到的原因是什么
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
165 3
|
分布式计算 监控 大数据
MaxCompute产品使用合集之CASE WHEN语句如何开窗函数一起使用
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
283 2
|
分布式计算 大数据 调度
MaxCompute产品使用问题之为什么用python写的udf函数跑起来比本地还要慢
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
195 3
|
机器学习/深度学习 分布式计算 DataWorks
MaxCompute产品使用问题之如何在UDF函数中访问外网
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
137 2
|
SQL 分布式计算 大数据
MaxCompute产品使用问题之建了一个python 的 UDF脚本,生成函数引用总是说类不存在,是什么导致的
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
156 2
|
JSON 分布式计算 大数据
MaxCompute产品使用问题之pyODPS3如何引用udf资源的函数
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
185 2

热门文章

最新文章