Apache Hive--DDL--创建表--默认分隔符| 学习笔记

简介: 快速学习 Apache Hive--DDL--创建表--默认分隔符

开发者学堂课程【大数据 Hive 教程精讲Apache Hive--DDL--创建表--默认分隔符】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/90/detail/1368


Apache Hive--DDL--创建表--默认分隔符


内容介绍:

一、ROW FORMAT DELIMITED


一、ROW FORMAT DELIMITED

[FIELDS TERMINATED By char]

[COLLECTION ITEMS TERMINATED BY char]

[MAP KEYS TERMINATED BY char]

[LINES TERMINATED BY char] | SERDE serde_name

[WITH SERDEPROPERTIES

(property_name=property_value, property_name=property_value,.)]

 

hive 建表的时候默认的分割符是'\001',若在建表的时候没有指明分隔符,load 文件的时候文件的分隔符需要是’\001’﹔若文件分隔符不是'001',程序不会报错,但表查询的结果会全部为'null';

vi 编辑器 Ctrl+v然后 Ctrl+a即可输入’\001----------->^A

SerDeSerialize/Deserilize 的简称,目的是用于序列化和反序列化。

Hive 读取文件机制:首先调用 InputFormat(默认TextInputFormat),返回一条一条记录(默认是一行对应一条记录)。然后调用 SerDe(默认LazySimpleSerDe) Deserializer,将一条记录切分为各个字段(默认'\001)

Hive写文件机制:Row 写入文件时,主要调用 OutputFormatSerDe Seriliaz.er.顺序与读取相反。

1: jdbc:hive2: //node-1:10000>

Crcreate cross

1: jdbc:hive2: //node-1:10000> create table t_t5(id int,name string)

1: jdbc:hive2:/node-1:10000>

No rows affectel (o.083 seconds)

1: jdbc:hive2: //node-1: 10000> show tables ;

tab_name

comp 1ex_array

t_t1

t_t2

t_t3

t_t5

5 rows selected (o.039 seconds)

1: jdbc:hive2:/l/node-1:10000>

相关文章
|
5月前
|
SQL 数据可视化 Apache
阿里云数据库内核 Apache Doris 兼容 Presto、Trino、ClickHouse、Hive 等近十种 SQL 方言,助力业务平滑迁移
阿里云数据库 SelectDB 内核 Doris 的 SQL 方言转换工具, Doris SQL Convertor 致力于提供高效、稳定的 SQL 迁移解决方案,满足用户多样化的业务需求。兼容 Presto、Trino、ClickHouse、Hive 等近十种 SQL 方言,助力业务平滑迁移。
阿里云数据库内核 Apache Doris 兼容 Presto、Trino、ClickHouse、Hive 等近十种 SQL 方言,助力业务平滑迁移
|
5月前
|
SQL 数据库 HIVE
Hive【基础知识 05】常用DDL操作(数据库操作+创建表+修改表+清空删除表+其他命令)
【4月更文挑战第8天】Hive【基础知识 05】常用DDL操作(数据库操作+创建表+修改表+清空删除表+其他命令)
80 0
|
SQL 关系型数据库 MySQL
Hive报错:HiveException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.me
Hive报错:HiveException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.me
492 0
|
5月前
|
SQL JSON 算法
hive学习笔记
hive学习笔记
|
5月前
|
SQL 分布式计算 Java
Apache Hudi与Hive集成手册
Apache Hudi与Hive集成手册
299 0
|
5月前
|
SQL 分布式计算 Hadoop
Hadoop学习笔记(HDP)-Part.15 安装HIVE
01 关于HDP 02 核心组件原理 03 资源规划 04 基础环境配置 05 Yum源配置 06 安装OracleJDK 07 安装MySQL 08 部署Ambari集群 09 安装OpenLDAP 10 创建集群 11 安装Kerberos 12 安装HDFS 13 安装Ranger 14 安装YARN+MR 15 安装HIVE 16 安装HBase 17 安装Spark2 18 安装Flink 19 安装Kafka 20 安装Flume
177 1
Hadoop学习笔记(HDP)-Part.15 安装HIVE
|
5月前
|
SQL 分布式计算 安全
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
229 0
|
5月前
|
SQL 分布式计算 MaxCompute
Apache Flink目前不支持直接写入MaxCompute,但是可以通过Hive Catalog将Flink的数据写入Hive表
Apache Flink目前不支持直接写入MaxCompute,但是可以通过Hive Catalog将Flink的数据写入Hive表
91 3
|
5月前
|
SQL 存储 Apache
流数据湖平台Apache Paimon(四)集成 Hive 引擎
流数据湖平台Apache Paimon(四)集成 Hive 引擎
385 0
|
5月前
|
存储 SQL 分布式计算
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
466 0

热门文章

最新文章

推荐镜像

更多
下一篇
无影云桌面