Hive常用操作

简介: 1. 绑定数据1.1 创建表&创建文本文件create table fantj.t3(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;hive> create table fantj.

1. 绑定数据

1.1 创建表&创建文本文件
create table  fantj.t3(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;
hive> create table  fantj.t3(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;
OK
Time taken: 4.467 seconds
hive> select * from fantj.t3;
OK
Time taken: 2.82 seconds

表示行格式用逗号来分割字段。

创建文本文件test.txt

我创建在/home/fantj目录下。

1,jiao,18
2,fantj,20
3,laowang,30
4,laotie,40
1.2 从本地导入到hive

LOAD DATA LOCAL INPATH '/home/fantj/test.txt' OVERWRITE INTO TABLE t3;

hive> LOAD DATA LOCAL INPATH '/home/fantj/test.txt' OVERWRITE INTO TABLE fantj.t3;
Loading data to table fantj.t3
[Warning] could not update stats.
OK
Time taken: 26.334 seconds

select * from fantj.t3;

hive> select * from fantj.t3;
OK
1   jiao    18
2   fantj   20
3   laowang 30
4   laotie  40
Time taken: 2.303 seconds, Fetched: 4 row(s)

导入成功!

1.3 从hdfs导入到hive
先将test文件上传到hdfs中

[root@s166 fantj]# hadoop fs -put test.txt /hdfs2hive

-rw-r--r--   3 root supergroup         46    /hdfs2hive/test.txt
进入hive,创建表t5
create table  fantj.t5(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;
hive> create table  fantj.t5(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;
OK
Time taken: 3.214 seconds

执行导入

LOAD DATA INPATH '/hdfs2hive/test.txt' OVERWRITE INTO TABLE fantj.t5;

hive> LOAD DATA INPATH '/hdfs2hive/test.txt' OVERWRITE INTO TABLE fantj.t5;
Loading data to table fantj.t5
[Warning] could not update stats.
OK
Time taken: 25.498 seconds

检查是否成功:

hive> select * from fantj.t5;
OK
1   jiao    18
2   fantj   20
3   laowang 30
4   laotie  40
Time taken: 5.046 seconds, Fetched: 4 row(s)
相关文章
|
SQL 存储 分布式计算
入门级大数据Hadoop、Hive常用操作语法sql工作整理
  大数据概念入门:   Hadoop分布式文件系统,HDFS是一个高度容错性的系统,能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。 HDFS不适合用在:要求低时间延迟数据访问的应用,存储大量的小文件,多用户写入,任意修改文件。   1.客户把一个文件存入HDFS,其实HDFS会把这个文件切块后,分散存储在N台linux机器系统中(data node)2.记录用户的每一个文件的切块信息,及每一块的具体存储机器(name node)总结:一个HDFS系统,可由一台运行了namenode的服务器,和N台运行了datanode的服务器组成!
394 0
|
SQL 数据采集 数据挖掘
大数据行业应用之Hive数据分析航班线路相关的各项指标
大数据行业应用之Hive数据分析航班线路相关的各项指标
412 1
|
SQL 存储 大数据
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
616 0
|
SQL 存储 大数据
黑马程序员-大数据入门到实战-分布式SQL计算 Hive 语法与概念
黑马程序员-大数据入门到实战-分布式SQL计算 Hive 语法与概念
273 0
|
SQL 分布式计算 数据库
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
721 0
|
SQL 存储 分布式计算
【大数据技术Hadoop+Spark】Hive数据仓库架构、优缺点、数据模型介绍(图文解释 超详细)
【大数据技术Hadoop+Spark】Hive数据仓库架构、优缺点、数据模型介绍(图文解释 超详细)
1892 0
|
7月前
|
SQL 分布式计算 大数据
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
本文深入介绍 Hive 与大数据融合构建强大数据仓库的实战指南。涵盖 Hive 简介、优势、安装配置、数据处理、性能优化及安全管理等内容,并通过互联网广告和物流行业案例分析,展示其实际应用。具有专业性、可操作性和参考价值。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
281 0
|
SQL 分布式计算 大数据
大数据处理平台Hive详解
【7月更文挑战第15天】Hive作为基于Hadoop的数据仓库工具,在大数据处理和分析领域发挥着重要作用。通过提供类SQL的查询语言,Hive降低了数据处理的门槛,使得具有SQL背景的开发者可以轻松地处理大规模数据。然而,Hive也存在查询延迟高、表达能力有限等缺点,需要在实际应用中根据具体场景和需求进行选择和优化。
1054 6