【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-03-MaxCompute内置函数(上)

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-03-MaxCompute内置函数

一、实验概述


大数据计算服务(MaxCompute,原名 ODPS)是一种快速、完全托管的 GB/TB/PB 级数据仓库解决方案。MaxCompute 向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全。

本实验结合实际数据和案例,深入浅出的演示了如何使用MaxCompute的内置函数。


二、实验目标


本实验通过客户端方式进行实验,掌握MaxCompute的内置函数的使用技巧,以及相关注意事项。

完成此实验后,可以掌握的内置函数有:

  1. 数值类函数;
  2. 字符串类函数;
  3. 日期类函数;
  4. 窗口函数;
  5. 聚合函数;
  6. 其他函数;      


三、学习建议


1. 掌握MaxCompute的内置函数的使用技巧以及相关命令的基础操作;
  2. 提前安装 ODPS客户端(下载客户端软件)。


第 1 章:实验简介


1.1 实验简介


一、实验概述


大数据计算服务(MaxCompute,原名 ODPS)是一种快速、完全托管的 GB/TB/PB 级数据仓库解决方案。MaxCompute 向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全。


本实验结合实际数据和案例,深入浅出的演示了如何使用MaxCompute的内置函数。


二、实验目标:


本实验通过客户端方式进行实验,掌握MaxCompute的内置函数的使用技巧,以及相关注意事项。


完成此实验后,可以掌握的内置函数有:

  1. 数值类函数;
  2. 字符串类函数;
  3. 日期类函数;
  4. 窗口函数;
  5. 聚合函数;
  6. 其他函数;      

三、学习建议:


1. 掌握MaxCompute的内置函数的使用技巧以及相关命令的基础操作;
  2. 提前安装 ODPS客户端(下载客户端软件)。


第 2 章:实验准备


2.1 申请MaxCompute资源


在弹出的左侧栏中,点击 创建资源 按钮,开始创建实验资源。

资源创建过程需要1-3分钟。完成实验资源的创建后,用户可以通过 实验资源 查看实验中所需的资源信息,例如:阿里云账号等。


2.2 进入实验环境


1 、申请MaxCompute资源

登录云中沙箱,在实验目录中查询所需实验,进入实验,点击“实验资源”,查看所需具体资源


点击“创建资源”,即可进入实验环境。(由于实验环境一旦开始创建则进入计时阶段,建议学员先基本了解实验具体的步骤、目的,真正开始做实验时再进行创建)

创建资源需要几分钟时间,请耐心等候……

企业别名:即主账号ID;


子用户名称和子用户密码:登录实验环境以及配置MaxCompute 数据源时需要;


AK ID和AK Secret:系统为本用户分配的登录验证密钥信息,在配置客户端及数据源时应用;


控制台url:登录实验环境的地址;

2 、进入实验环境

步骤一:登录管理控制台


资源开通后,点击左侧菜单栏中“控制台url”链接,进入用户登录页面。

输入资源提供的“子用户名称”和“子用户密码”登录。

登陆成功后,进入管理控制台页面:

步骤二:打开“DataWorks”


展开左侧菜单,点击“产品与服务”,在“大数据(数加)”产品列表中,点击“DataWorks”。

步骤三:创建项目


创建项目需要管理员权限,沙箱实验环境默认创建完项目:

步骤四:进入数据开发


选中项目,点击“进入数据开发”,则进入“数据开发”环境。

数据开发界面如下:

20200711114454367.png


2.3 配置odpscmd客户端


步骤1:客户端介质下载 (本实验在附件中提供)


步骤2:解压odpscmd_public.zip 到本目录,如:解压至本地目录 F:\ODPS_DEMO


步骤3:查看本次实验课用到的介质,可以看到如下的文件夹:


bin/ conf/ lib/ plugins/


步骤4:在conf文件夹中有odps_config.ini文件。编辑此文件,填写相关信息:

project_name=<项目名称>
access_id=< AK ID>
access_key=
end_point=http://service.odps.aliyun.com/api (默认)
tunnel_endpoint=http://dt.odps.aliyun.com (默认)
log_view_host=http://logview.odps.aliyun.com (默认)
https_check=true (默认)

步骤5:修改好配置文件后运行bin目录下的odpscmd(在Linux系统下是./bin/odpscmd,Windows下运行./bin/odpscmd.bat),现在可以运行 MaxCompute 命令,如:

20200711114536898.png


注意:项目可以随时根据情况切换,上图表示环境设置成功.


2.4 测试表dual准备


1、展开左侧菜单,点击“临时查询”,然后点击新建“ODPS SQL”。

20200711124101988.png

2、在弹出对话框中,输入“节点名称”,选择“目标文件夹”,点击“提交”。


20200711124120448.png

进入脚本编辑页面,进行脚本开发,创建实验测试表dual,点击运行

CREATE TABLE dual (id BIGINT) LIFECYCLE 10000;

20200711124202309.png

测试表创建成功

2020071112422457.png


往测试表里插入一条数据,输入sql, 选中后点击“运行”。

insertinto table dual select count(1) fromdual;

20200711124333866.png


查看测试表数据内容,输入sql, 选中后点击“运行”。

select * from dual limit 10;

20200711124354268.png

2.5 测试表t_dml准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_dml,点击运行。


CREATE TABLE t_dml(detail_id BIGINT,sale_date datetime,province STRING,city STRING,product_id BIGINT,cnt BIGINT,amt DOUBL);

20200711124446108.png

进入odpscmd交互界面

加载数据 t_dml.csv:

20200711124511659.png


查看数据表数据20200711124550644.png

2.6 测试表t_product准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_product,点击运行。


CREATE TABLE t_product (product_id BIGINT,product_name STRING,category_id BIGINT,category_name STRING,price DOUBLE);

20200711124620486.png

进入odpscmd交互界面

加载数据 t_product.csv:

2020071112470425.png

查看数据表数据

select* from t_product limit 10;

20200711124723733.png


2.7 测试表t_sign准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_sign,点击运行


CREATE TABLE t_sign (id BIGINT,name STRING,height DOUBLE,is_female BOOLEAN,birth_day datetime);

20200711124759306.png

进入odpscmd交互界面

加载数据 t_sign.csv:

20200711124834278.png

20200711124904583.png

查看数据表数据

select* from t_sign limit 10;

20200711124925407.png

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
2月前
|
SQL 人工智能 分布式计算
ODPS十五周年实录|构建 AI 时代的大数据基础设施
本文根据 ODPS 十五周年·年度升级发布实录整理而成,演讲信息如下: 张治国:阿里云智能集团技术研究员、阿里云智能计算平台事业部 ODPS-MaxCompute 负责人 活动:【数据进化·AI 启航】ODPS 年度升级发布
161 9
|
2月前
|
SQL 存储 分布式计算
【万字长文,建议收藏】《高性能ODPS SQL章法》——用古人智慧驾驭大数据战场
本文旨在帮助非专业数据研发但是有高频ODPS使用需求的同学们(如数分、算法、产品等)能够快速上手ODPS查询优化,实现高性能查数看数,避免日常工作中因SQL任务卡壳、失败等情况造成的工作产出delay甚至集群资源稳定性问题。
1015 36
【万字长文,建议收藏】《高性能ODPS SQL章法》——用古人智慧驾驭大数据战场
|
4月前
|
存储 分布式计算 大数据
【赵渝强老师】阿里云大数据存储计算服务:MaxCompute
阿里云MaxCompute是快速、全托管的TB/PB级数据仓库解决方案,提供海量数据存储与计算服务。支持多种计算模型,适用于大规模离线数据分析,具备高安全性、低成本、易用性强等特点,助力企业高效处理大数据。
238 0
|
2月前
|
人工智能 分布式计算 DataWorks
阿里云大数据AI产品月刊-2025年8月
阿里云大数据& AI 产品技术月刊【2025年 8 月】,涵盖 8 月技术速递、产品和功能发布、市场和客户应用实践等内容,帮助您快速了解阿里云大数据& AI 方面最新动态。
294 1
|
2月前
|
存储 分布式计算 资源调度
【赵渝强老师】阿里云大数据MaxCompute的体系架构
阿里云MaxCompute是快速、全托管的EB级数据仓库解决方案,适用于离线计算场景。它由计算与存储层、逻辑层、接入层和客户端四部分组成,支持多种计算任务的统一调度与管理。
275 1
|
SQL 人工智能 分布式计算
MaxCompute平台非标准日期和气象数据处理方法--以电力AI赛为例
MaxCompute平台支持的日期格式通常是对齐的日期格式诸如20170725或2017/07/25这种,而本次电力AI赛提供的日期格式却是未对齐的非标准的日期格式2016/1/1这种,使得无法直接使用ODPS SQL中的日期函数来进行处理。
5554 0
|
2月前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
187 14
|
4月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
165 4
|
3月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
151 0
下一篇
oss云网关配置