【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-03-MaxCompute内置函数(上)

简介: 【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-03-MaxCompute内置函数

一、实验概述


大数据计算服务(MaxCompute,原名 ODPS)是一种快速、完全托管的 GB/TB/PB 级数据仓库解决方案。MaxCompute 向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全。

本实验结合实际数据和案例,深入浅出的演示了如何使用MaxCompute的内置函数。


二、实验目标


本实验通过客户端方式进行实验,掌握MaxCompute的内置函数的使用技巧,以及相关注意事项。

完成此实验后,可以掌握的内置函数有:

  1. 数值类函数;
  2. 字符串类函数;
  3. 日期类函数;
  4. 窗口函数;
  5. 聚合函数;
  6. 其他函数;      


三、学习建议


1. 掌握MaxCompute的内置函数的使用技巧以及相关命令的基础操作;
  2. 提前安装 ODPS客户端(下载客户端软件)。


第 1 章:实验简介


1.1 实验简介


一、实验概述


大数据计算服务(MaxCompute,原名 ODPS)是一种快速、完全托管的 GB/TB/PB 级数据仓库解决方案。MaxCompute 向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全。


本实验结合实际数据和案例,深入浅出的演示了如何使用MaxCompute的内置函数。


二、实验目标:


本实验通过客户端方式进行实验,掌握MaxCompute的内置函数的使用技巧,以及相关注意事项。


完成此实验后,可以掌握的内置函数有:

  1. 数值类函数;
  2. 字符串类函数;
  3. 日期类函数;
  4. 窗口函数;
  5. 聚合函数;
  6. 其他函数;      

三、学习建议:


1. 掌握MaxCompute的内置函数的使用技巧以及相关命令的基础操作;
  2. 提前安装 ODPS客户端(下载客户端软件)。


第 2 章:实验准备


2.1 申请MaxCompute资源


在弹出的左侧栏中,点击 创建资源 按钮,开始创建实验资源。

资源创建过程需要1-3分钟。完成实验资源的创建后,用户可以通过 实验资源 查看实验中所需的资源信息,例如:阿里云账号等。


2.2 进入实验环境


1 、申请MaxCompute资源

登录云中沙箱,在实验目录中查询所需实验,进入实验,点击“实验资源”,查看所需具体资源


点击“创建资源”,即可进入实验环境。(由于实验环境一旦开始创建则进入计时阶段,建议学员先基本了解实验具体的步骤、目的,真正开始做实验时再进行创建)

创建资源需要几分钟时间,请耐心等候……

企业别名:即主账号ID;


子用户名称和子用户密码:登录实验环境以及配置MaxCompute 数据源时需要;


AK ID和AK Secret:系统为本用户分配的登录验证密钥信息,在配置客户端及数据源时应用;


控制台url:登录实验环境的地址;

2 、进入实验环境

步骤一:登录管理控制台


资源开通后,点击左侧菜单栏中“控制台url”链接,进入用户登录页面。

输入资源提供的“子用户名称”和“子用户密码”登录。

登陆成功后,进入管理控制台页面:

步骤二:打开“DataWorks”


展开左侧菜单,点击“产品与服务”,在“大数据(数加)”产品列表中,点击“DataWorks”。

步骤三:创建项目


创建项目需要管理员权限,沙箱实验环境默认创建完项目:

步骤四:进入数据开发


选中项目,点击“进入数据开发”,则进入“数据开发”环境。

数据开发界面如下:

20200711114454367.png


2.3 配置odpscmd客户端


步骤1:客户端介质下载 (本实验在附件中提供)


步骤2:解压odpscmd_public.zip 到本目录,如:解压至本地目录 F:\ODPS_DEMO


步骤3:查看本次实验课用到的介质,可以看到如下的文件夹:


bin/ conf/ lib/ plugins/


步骤4:在conf文件夹中有odps_config.ini文件。编辑此文件,填写相关信息:

project_name=<项目名称>
access_id=< AK ID>
access_key=
end_point=http://service.odps.aliyun.com/api (默认)
tunnel_endpoint=http://dt.odps.aliyun.com (默认)
log_view_host=http://logview.odps.aliyun.com (默认)
https_check=true (默认)

步骤5:修改好配置文件后运行bin目录下的odpscmd(在Linux系统下是./bin/odpscmd,Windows下运行./bin/odpscmd.bat),现在可以运行 MaxCompute 命令,如:

20200711114536898.png


注意:项目可以随时根据情况切换,上图表示环境设置成功.


2.4 测试表dual准备


1、展开左侧菜单,点击“临时查询”,然后点击新建“ODPS SQL”。

20200711124101988.png

2、在弹出对话框中,输入“节点名称”,选择“目标文件夹”,点击“提交”。


20200711124120448.png

进入脚本编辑页面,进行脚本开发,创建实验测试表dual,点击运行

CREATE TABLE dual (id BIGINT) LIFECYCLE 10000;

20200711124202309.png

测试表创建成功

2020071112422457.png


往测试表里插入一条数据,输入sql, 选中后点击“运行”。

insertinto table dual select count(1) fromdual;

20200711124333866.png


查看测试表数据内容,输入sql, 选中后点击“运行”。

select * from dual limit 10;

20200711124354268.png

2.5 测试表t_dml准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_dml,点击运行。


CREATE TABLE t_dml(detail_id BIGINT,sale_date datetime,province STRING,city STRING,product_id BIGINT,cnt BIGINT,amt DOUBL);

20200711124446108.png

进入odpscmd交互界面

加载数据 t_dml.csv:

20200711124511659.png


查看数据表数据20200711124550644.png

2.6 测试表t_product准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_product,点击运行。


CREATE TABLE t_product (product_id BIGINT,product_name STRING,category_id BIGINT,category_name STRING,price DOUBLE);

20200711124620486.png

进入odpscmd交互界面

加载数据 t_product.csv:

2020071112470425.png

查看数据表数据

select* from t_product limit 10;

20200711124723733.png


2.7 测试表t_sign准备


进入脚本编辑页面,进行脚本开发,创建实验测试表t_sign,点击运行


CREATE TABLE t_sign (id BIGINT,name STRING,height DOUBLE,is_female BOOLEAN,birth_day datetime);

20200711124759306.png

进入odpscmd交互界面

加载数据 t_sign.csv:

20200711124834278.png

20200711124904583.png

查看数据表数据

select* from t_sign limit 10;

20200711124925407.png

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
30天前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用合集之大数据计算MaxCompute如何实现通过离线同步脚本模式
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用合集之odps.sql.mapper.split.size和odps.stage.mapper.split.size这两个参数的区别是什么
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
SQL 机器学习/深度学习 分布式计算
MaxCompute产品使用合集之在ODPS中,如何将日期时间与8小时进行拼接
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
SQL 分布式计算 DataWorks
MaxCompute产品使用合集之odps的表是否支持修改
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
SQL 分布式计算 运维
MaxCompute操作报错合集之遇到报错:ODPS-0110061: Failed to run ddltask - Modify DDL meta encounter exception该如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
4天前
|
分布式计算 DataWorks NoSQL
DataWorks操作报错合集之从MongoDB同步数据到MaxCompute(ODPS)时,出现报错,该怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
DataWorks操作报错合集之从MongoDB同步数据到MaxCompute(ODPS)时,出现报错,该怎么解决
|
6天前
|
分布式计算 大数据 Java
MaxCompute产品使用合集之在datawoks的datastudio和odpscmd里执行时间没有问题,但是用jdbc连接大数据计算MaxCompute获取getdate()时间就不对,该怎么办
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
22天前
|
存储 弹性计算 大数据
【阿里云弹性计算】阿里云ECS在大数据处理中的应用:高效存储与计算实践
【5月更文挑战第23天】阿里云ECS在大数据处理中发挥关键作用,提供多样化实例规格适应不同需求,尤其大数据型实例适合离线计算。通过集成分布式文件系统如OSS,实现大规模存储,而本地存储优化提升I/O性能。弹性扩容和计算优化实例确保高效运行,案例显示使用ECS能提升处理速度并降低成本。结合阿里云服务,ECS构建起强大的数据处理生态,推动企业创新和数字化转型。
41 0
|
30天前
|
分布式计算 DataWorks 数据管理
DataWorks操作报错合集之DataWorks中udf开发完后,本地和在MaxCompute的工作区可以执行函数查询,但是在datawork里报错FAILED: ODPS-0130071:[2,5],是什么原因
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
35 0
|
30天前
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之在DataWorks中,使用JSON解析函数将MySQL表中的字段解析成多个字段将这些字段写入到ODPS(MaxCompute)中如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
55 3

热门文章

最新文章