01 引言
在前面的教程,已经初步了解了Hive
的数据类型,有兴趣的同学可以参阅:
通过前面的学习,我们知道了Hive是什么?怎么安装?数据存放到哪个目录?能存哪种类型?
接下来,我们需要知道的是该怎么存?也就是hive的操作命令。
02 命令汇总
2.1 基础命令
2.1.1 启动
启动命令:
hive
2.1.2 退出
--退出hive quit; --exit会影响之前的使用,所以需要下一句kill掉hadoop的进程 exit; hadoop job -kill jobid
2.1.3 数据导入导出
2.1.3.1 数据导入
Hive没有行级别的插入、删除、更新的操作,那么往表里面装数据的唯一的途径就是使用一种“大量”的数据装载操作,或者仅仅将文件写入到正确的目录下面:
这里使用overwrite
关键字:
load data local inpath '${env:HOME}/目录' overwrite(可选) into table table_name partition (分区);
注意:如果没有使用overwrite
,则会再拷贝一份数据,不会覆盖原来的数据。
2.1.3.2 数据导出
hadoop fs -cp source_path target_path insert……directory…… e.g insert overwrite local directory '/tmp/目录' -- 这里指定的路径也可以是全URL路径
2.1.4 HSql文件执行
2.1.4.1 控制台执行
hive -f sql_path; e.g hive -f /path/to/file/xxxx.hql;
2.1.4.2 hive shell 执行
source sql_path; e.g source /path/to/file/test.sql;
2.1.4.3 一次使用命令
hive -e "SQL语句"; e.g. $ hive -e "select * from mytable limit 3";
2.1.5 配合nohup使用
nohup hive -f insert.sql >log.log &
2.2 DDL命令
2.2.1 数据库
2.2.1.1 创建数据库
-- 新建数据库 create database database_name; -- 新建数据库 database_name; creat database if not exists --只是复制了表结构,并不会复制内容 create table test3 like test2; --复制表结构的同时,把内容也复制过来了,需要执行mapreduce create table test2 as select name,addr from test1; --修改数据库的路径 create database database_name location '路径';
2.2.1.2 删除数据库
--删除空的数据库 drop database if exists database_name; --先删除数据库中的表再删除数据库 drop database if exists database_name cascade; --删除表t1 drop table t1 CASCADE(可选,忽略错误); --删除数据库的时候,不允许删除有数据的数据库,如果数据库里面有数据则会报错。如果要忽略这些内容,则在后面增加CASCADE关键字,则忽略报错,删除数据库。 t1;--如果存在表t1,删除表t1 drop table if exists CASCADE
2.2.1.3 修改数据库
alter table table_name rename to another_name; --修改表名
2.2.1.4 查看数据库
-- 查看数据库 show databases; -- 查看数据库 show databases like 'h.*'; --查看该数据库中的所有表 show tables; --支持模糊查询 show tables ‘*t*’; --查看指定数据库中的所有表 SHOW TABLES IN DbName; --查看表有哪些分区 show partitions t1; --查看表的结构及表的路径 describe formatted(可选) tab_name; --查看数据库的描述及路径 describe database database_name;
2.2.1.5 使用数据库
--使用哪个数据库 use default; --移动hdfs中数据到t1表中 load data inpath '/root/inner_table.dat' into table t1; --上传本地数据到hdfs中 load data local inpath '/root/inner_table.dat' into table t1; --查询当前linux文件夹下的文件 !ls; --查询当前hdfs文件系统下 '/'目录下的文件 dfs -ls /; --显示地展示当前使用的数据库 set hive.cli.print.current.db=true; --Hive显示列头 set hive.cli.print.header=true;
2.2.2 表
2.2.2.1 新建表
基础命令:
CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name -- (Note: TEMPORARY available in Hive 0.14.0 and later) [(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] [SKEWED BY (col_name, col_name, ...) -- (Note: Available in Hive 0.10.0 and later)] ON ((col_value, col_value, ...), (col_value, col_value, ...), ...) [STORED AS DIRECTORIES] [ [ROW FORMAT row_format] [STORED AS file_format] | STORED BY 'storage.handler.class.name' [WITH SERDEPROPERTIES (...)] -- (Note: Available in Hive 0.6.0 and later) ] [LOCATION hdfs_path] [TBLPROPERTIES (property_name=property_value, ...)] -- (Note: Available in Hive 0.6.0 and later) [AS select_statement]; -- (Note: Available in Hive 0.5.0 and later; not supported for external tables)
创建表:
hive> CREATE TABLE pokes (foo INT, bar STRING); Creates a table called pokes with two columns, the first being an integer and the other a string
创建一个新表,结构与其他一样:
hive> create table new_table like records;
创建分区表:
hive> create table logs(ts bigint,line string) partitioned by (dt String,country String);
2.2.2.2 更新表
更新表的名称:
hive> ALTER TABLE source RENAME TO target;
添加新一列:
hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');
2.2.2.3 删除表
删除表:
hive> DROP TABLE records;
删除表中数据,但要保持表的结构定义:
hive> dfs -rmr /user/hive/warehouse/records;
2.2.2.4 查询表
注意:select *
不执行mapreduce
,只进行一个本地的查询;而select
某个字段 生成一个job
,执行mapreduce
。
基础查询:
hive> select * from employees; OK tony 1338 ["a1","a2","a3"] {"k1":1.0,"k2":2.0,"k3":3.0} {"street":"s1","city":"s2","state":"s3","zip":4} mark 5453 ["a4","a5","a6"] {"k4":4.0,"k5":5.0,"k6":6.0} {"street":"s4","city":"s5","state":"s6","zip":6} ivy 323 ["a7","a8","a9"] {"k7":7.0,"k8":8.0,"k9":9.0} {"street":"s7","city":"s8","state":"s9","zip":9} Time taken: 10.204 seconds, Fetched: 3 row(s)
查树组:
hive> select subordinates[1] from employees; Total MapReduce CPU Time Spent: 2 seconds 740 msec OK a2 a5 a8
查map:
hive> select deductions["k2"] from employees; OK 2.0 NULL NULL Time taken: 75.812 seconds, Fetched: 3 row(s)
查结构体:
hive> select address.city from employees; Total MapReduce CPU Time Spent: 2 seconds 200 msec OK s2 s5 s8 Time taken: 75.311 seconds, Fetched: 3 row(s)
加载分区表数据:
hive> load data local inpath '/home/hadoop/input/hive/partitions/file1' into table logs partition (dt='2001-01-01',country='GB');
展示表中有多少分区:
hive> show partitions logs;
展示所有表:
hive> SHOW TABLES; lists all the tables hive> SHOW TABLES '.*s';
显示表的结构信息 :
hive> DESCRIBE invites;
显示所有函数:
hive> show functions;
查看函数用法:
hive> describe function substr;
查看数组、map、结构:
hive> select col1[0],col2['b'],col3.c from complex;
内连接:
hive> SELECT sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);
查看hive为某个查询使用多少个MapReduce作业:
hive> Explain SELECT sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);
外连接:
hive> SELECT sales.*, things.* FROM sales LEFT OUTER JOIN things ON (sales.id = things.id); hive> SELECT sales.*, things.* FROM sales RIGHT OUTER JOIN things ON (sales.id = things.id); hive> SELECT sales.*, things.* FROM sales FULL OUTER JOIN things ON (sales.id = things.id);
in查询: Hive不支持,但可以使用:
LEFT SEMI JOIN hive> SELECT * FROM things LEFT SEMI JOIN sales ON (sales.id = things.id);
Map连接:Hive
可以把较小的表放入每个Mapper的内存来执行连接操作
hive> SELECT /*+ MAPJOIN(things) */ sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);
INSERT OVERWRITE TABLE …SELECT: 新表预先存在
hive> FROM records2 > INSERT OVERWRITE TABLE stations_by_year SELECT year, COUNT(DISTINCT station) GROUP BY year > INSERT OVERWRITE TABLE records_by_year SELECT year, COUNT(1) GROUP BY year > INSERT OVERWRITE TABLE good_records_by_year SELECT year, COUNT(1) WHERE temperature != 9999 AND (quality = 0 OR quality = 1 OR quality = 4 OR quality = 5 OR quality = 9) GROUP BY year;
CREATE TABLE … AS SELECT:新表表预先不存在
hive>CREATE TABLE target AS SELECT col1,col2 FROM source;
创建视图:
hive> CREATE VIEW valid_records AS SELECT * FROM records2 WHERE temperature !=9999;
查看视图详细信息:
hive> DESCRIBE EXTENDED valid_records;