ODPS功能介绍之CLT

简介:

大家在使用ODPS之前,一定会问如何与ODPS亲密接触。 ODPS提供了基于HTTP/HTTPS的RESTful API接口,同时还有JAVA语言的SDK,但还有一款工具相信大家更喜欢-ODPS CLT (Command-Line Tool),一个基于命令行的工具。这款工具就是基于ODPS JAVA SDK开发的,只要机器上安装了JAVA 1.6,就可以运行。 通过这个工具,大家可以直接以命令的方式向ODPS提交任务作业来执行。下来给大家介绍一下这款工具如何使用。
安装及配置
(1) 这款工具可以从ODPS官网下载,下载之后,解开压缩包,例如:解压缩到 C:\ODPS_DEMO\
(2) 进入目录 C:\ODPS_DEMO\odpscmd_public\conf\,打开文件 odps_config.ini,修改配置信息
project_name=project_name
access_id=XXXXXXXXXXXXXXXX
access_key=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
end_point=http://service.odps.aliyun.com/api
tunnel_endpoint=http://dt.odps.aliyun.com
log_view_host=http://logview.odps.aliyun.com
https_check=true
说明:将project_name 值改为自己的project 名称,将access_id及access_key改为自己云账号的id和key。其它值可以不做修改;
(3) 通过命令行,进入C:\ODPS_DEMO\odpscmd_public\bin\,执行 odpscmd,进入交互界面,确认安装是否配置成功。
(4) 将 C:\ODPS_DEMO\odpscmd_public\bin 加入环境变量 PATH,方便通过命令行调用 odpscmd
ODPS CLT有两种执行方式:交互式和非交互式。 交互式即输入一条执行一条,直到用户退出。非交互式主要用于外部脚本的调用。脚本可以通过参数将命令传递给CLT来执行,执行完成后,CLT自动退出。 两种方式分别举例说明。
交互式执行常用命令
(1) 进入交互界面

odpscmd

(2) 分别执行下述命令

# 查看帮助信息
help;
# 切换项目
use aca21104_demo;
# 查看当前项目的详细信息
desc project aca21104_demo;
# 列出表信息
ls tables;
# 查看某个表的具体信息
desc dual;
# 查看表中记录数
count dual;
select count(*) from dual;
# 查看表记录内容:
read dual;
select * from dual;
# 添加用户 ben.ning@aliyun.com 到当前项目空间中来:
list users;
remove user ALIYUN$ben.ning@aliyun.com;
add user ALIYUN$ben.ning@aliyun.com;
# 新建表 t_test
create table if not exists t_test (id int, name string);
# 插入一条数据
insert into table t_test select * from t_test;
# 查看表中记录:
read t_test;

注:CLT中的每个命令以;作为结尾符,遇到结尾符才开始执行。所以命令后面不要忘记添加;号;
非交互式执行命令
使用-f执行指定文件中的命令集
(1) 在目录 C:\ODPS_DEMO\resources\01-BasicKnowledge\ 中新建一个文件 crt_tbl_new.cmd,包括如下内容:

use aca21104_demo;
drop table if exists t_test;
create table t_test (id int, name string);
insert into table t_test select 1,’odps’ from dual;
read t_test;
注:文件一定要存储为UTF-8格式;
(2) 使用 odpscmd 调用命令文件:

odpscmd -f C:\ODPS_DEMO\resources\01-BasicKnowledge\crt_tbl_new.cmd

(3) 使用 odpscmd 执行命令文件中的一部分命令(跳过开头的命令):

odpscmd -f C:\ODPS_DEMO\resources\01-BasicKnowledge\crt_tbl_new.cmd -k 4
使用-e参数执行命令
(1) 使用odpscmd -e 执行多个命令:

odpscmd -e “insert into table t_test select 2,’odpscmd’ from dual; read t_test;”

(2) 使用 -e 和 -k 结合在执行命令集时可跳过一些命令:

odpscmd -e “insert into table t_test select 2,’odpscmd’ from dual; read t_test;” -k

使用CLT中上传、下载数据
CLT中有个Tunnel命令,用来支持上传和下载数据的操作,如果数据量比较小,可以尝试使用CLT进行上传和下载。
(1) 使用 upload 子命令,上传文件 people.csv 到表 t_tunnel 中:

tunnel upload C:\ODPS_DEMO\resources\02-DataTransfer\people.csv t_tunnel;

(2) 检查上传结果:

read t_tunnel;
如果目标表有分区,需要先创建好分区,然后再上传数据,如:
(1) 创建表 t_tunnel_p 的分区 gender=’male’中:

alter table t_tunnel_p add if not exists partition (gender=’male’);

(2) 使用 upload 子命令,上传文件 men.csv 以及 women.csv 到表 t_tunnel_p 的已存在的分区 gender=’male’中:

tunnel upload women.csv t_tunnel_p/gender=’male’;
tunnel upload men.csv t_tunnel_p/gender=’male’;

如果想将表中的数据下载到本地也是件非常容易的事情,例如:
将表 t_tunnel 下载到本地文件 t_tunnel.csv:

tunnel download t_tunnel t_tunnel.csv;

如果想下载某个分区中的数据,可以直接指定分区即可:

tunnel download t_tunnel_p/gender=’male’ t_tunnel_p.csv;

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
11天前
|
分布式计算 DataWorks 大数据
DataWorks产品使用合集之在DataWorks中,在MaxCompute中使用解压缩功能如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
32 0
|
11天前
|
分布式计算 DataWorks MaxCompute
DataWorks产品使用合集之在DataWorks中,将数据集成功能将AnalyticDB for MySQL中的数据实时同步到MaxCompute中如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
23 0
|
6月前
|
分布式计算 DataWorks 关系型数据库
MaxCompute支持通过DataWorks数据集成功能将其他数据源数据同步至MaxCompute
MaxCompute支持通过DataWorks数据集成功能将其他数据源数据同步至MaxCompute
39 1
|
6月前
|
jstorm 大数据 分布式数据库
大数据下的实时热点功能实现讨论(实时流的TopN)
我司内部有个基于jstorm的实时流编程框架,文档里有提到实时Topn,但是还没有实现。。。。这是一个挺常见挺重要的功能,但仔细想想实现起来确实有难度。实时流的TopN其实离大家很近,比如下图百度和微博的实时热搜榜,还有各种资讯类的实时热点,他们具体实现方式不清楚,甚至有可能是半小时离线跑出来的。今天不管他们怎么实现的,我们讨论下实时该怎么实现(基于storm)。
120 0
|
9月前
|
分布式计算 运维 大数据
MaxCompute资源管理——使用成本优化功能实现包年包月计算资源降本增效
MaxCompute提供成本优化(计算资源优化推荐)功能,可基于实际作业请求量和资源配置期望,对包年包月一级Quota类型的计算资源生成更优的资源配置方案,帮助进一步提升计算资源利用率,优化计算成本。本文我们一起通过典型场景案例来看看如何通过成本优化(计算资源优化推荐)功能提供降本增效的参考建议。
424 0
|
10月前
|
Cloud Native 大数据
阿里云最新产品手册——阿里云核心产品——云原生大数据计算服务——产品功能
阿里云最新产品手册——阿里云核心产品——云原生大数据计算服务——产品功能自制脑图
432 1
|
11月前
|
数据采集 Java 大数据
大数据数据采集的数据采集(收集/聚合)的Logstash之强大的插件功能
在大数据领域中,Logstash是一款非常流行的数据采集工具。它具有丰富的插件功能,可以完成各种不同数据来源的数据采集任务。本文将介绍Logstash的插件功能,并为大家介绍几款强大的插件。
140 1
|
12月前
|
分布式计算 资源调度 运维
【大数据运维】Hadoop开启Yarn的日志监控功能
【大数据运维】Hadoop开启Yarn的日志监控功能
【大数据运维】Hadoop开启Yarn的日志监控功能
|
SQL 消息中间件 存储
大数据生态圈常用组件(二):概括介绍、功能特性、适用场景
大数据生态圈常用组件(二):概括介绍、功能特性、适用场景
|
存储 机器学习/深度学习 分布式计算
【MaxCompute】核心功能
统一丰富的计算和存储能力MaxCompute 支持多种计算模型和丰富的 UDF。 采用列压缩存储格式,通常情况下具备 5 倍压缩能力,可以大幅节省存储成本。
【MaxCompute】核心功能

热门文章

最新文章