助力工业物联网,工业大数据之ODS层及DWD层建表语法【七】

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 助力工业物联网,工业大数据之ODS层及DWD层建表语法【七】

ODS层及DWD层构建

01:课程回顾

  1. 一站制造项目的数仓设计为几层以及每一层的功能是什么?
  • ODS:原始数据层:存放从Oracle中同步采集的所有原始数据
  • DW:数据仓库层
  • DWD:明细数据层:存储ODS层进行ETL以后的数据
  • DWB:轻度汇总层:对DWD层的数据进行轻度聚合:关联和聚合
  • 基于每个主题构建主题事务事实表
  • DWS:维度数据层:对DWD层的数据进行维度抽取
  • 基于每个主题的维度需求抽取所有维度表
  • ST:数据应用层
  • 基于DWB和DWS的结果进行维度的聚合
  • DM:数据集市层
  • 用于归档存储公司所有部门需要的shuju
  1. 一站制造项目的数据来源是什么,核心的数据表有哪些?
  • 数据来源:业务系统
  • ERP:公司资产管理系统、财务数据
  • 工程师信息、零部件仓储信息
  • CISS:客户服务管理系统
  • 工单信息、站点信息、客户信息
  • 呼叫中心系统
  • 来电受理信息、回访信息
  1. 一站制造项目中在数据采集时遇到了什么问题,以及如何解决这个问题?
  • 技术选型:Sqoop
  • 问题:发现采集以后生成在HDFS上文件的行数与实际Oracle表中的数据行数不一样,多了
  • 原因:Sqoop默认将数据写入HDFS以普通文本格式存储,一旦遇到数据中如果包含了特殊字符\n,将一行的数据解析为多行
  • 解决
  • 方案一:Sqoop删除特殊字段、替换特殊字符【一般不用】
  • 方案二:更换其他数据文件存储类型:AVRO
  • 数据存储:Hive
  • 数据计算:SparkSQL
  1. 什么是Avro格式,有什么特点?
  • 二进制文本:读写性能更快
  • 独立的Schema:生成文件每一行所有列的信息
  • 对列的扩展非常友好
  • Spark与Hive都支持的类型
  1. 如何实现对多张表自动采集到HDFS
  • 需求
  • 读取表名
  • 执行Sqoop命令
  • 效果:将所有增量和全量表的数据采集到HDFS上
  • 全量表路径:维度表:数据量、很少发生变化
/data/dw/ods/one_make/   full_imp   /表名/分区/数据
  • 增量表路径:事实表:数据量不断新增,整体相对较大
/data/dw/ods/one_make/    incr_imp  /表名/分区/数据
  • Schema文件的存储目录
/data/dw/ods/one_make/avsc
  • Shell:业务简单,Linux命令支持
  • Python:业务复杂,是否Python开发接口
  • 调用了LinuxShell来运行
  1. Python面向对象的基本应用
  • 语法
  • 定义类
class 类名:
  # 属性:变量
  # 方法:函数
  • 定义变量
key = value
  • 定义方法
def funName(参数):
  方法逻辑
  return
  • 面向对象:将所有事物以对象的形式进行编程,万物皆对象
  • 对象:是类的实例
  • 对象类:专门用于构造对象的,一般称为Bean,代表某一种实体Entity
  • 类的组成
class 类名:
  # 属性:变量
  # 方法:函数
  • 业务:实现人购买商品
class Person:
  # 属性
  id = 1
  name = zhangsan
  age = 18
  gender = 1
  ……
  # 方法
  def eat(self,something):
    print(f"{self.name} eating {something}")
    def buy(self,something)
      print(f"{self.name} buy {something}")
  • 每个人都是一个Person类的对象
  • 商品
class Product:
  # 属性
  id = 001
  price = 1000.00
  size = middle
  color = blue
  ……
  # 方法
  def changePrice(self,newPrice):
    self.price = newPirce
  • 工具类:专门用于封装一些工具方法的,utils,代表某种操作的集合
  • 类的组成:一般只有方法
class 类名:
  # 方法:函数
  • 字符串处理工具类:拼接、裁剪、反转、长度、转大写、转小写、替换、查找
class StringUtils:
  def concat(split,args*):
    split.join(args)
  def reverse(sourceString)
      return reverse(sourceString)
  ……
  • 日期处理工具类:计算、转换
class TimeUitls:
  def computeTime(time1,time2):
    return time1-time2
  def transTimestamp(timestamp):
    return newDateyyyy-MM-dd HH:mm:ss)
  def tranfData(date)
    return timestamp
  • 常量类:专门用于定义一些不会发生改变的变量的类
  • 类的组成:一般只有属性
class 类名:
  # 属性:不发生变化的属性
  • 定义一个常量类
class Common:
  ODS_DB_NAME = "one_make_ods"
  ……
  • file1.py:创建数据库
create database if not exists Common.ODS_DB_NAME;
• 1
  • file2.py:创建表
```
create table if not exists Common.ODS_DB_NAME.tbname
```
  • file3.py:插入数据到表中
insert into table  Common.ODS_DB_NAME.tbname
  • 问题1:容易写错
  • 问题2:不好修改

02:课程目标

  • 目标:自动化的ODS层与DWD层构建
  • 实现
  • 掌握Hive以及Spark中建表的语法规则
  • 实现项目开发环境的构建
  • 自己要实现所有代码注释
  • ODS层与DWD层整体运行测试成功

03:数仓分层回顾

  • 目标:回顾一站制造项目分层设计
  • 实施
  • ODS层 :原始数据层
  • 来自于Oracle中数据的采集
  • 数据存储格式:AVRO
  • ODS区分全量和增量
  • 实现
  • 数据已经采集完成
/data/dw/ods/one_make/full_imp
/data/dw/ods/one_make/incr_imp
  • step1:创建ODS层数据库:one_make_ods
  • step2:根据表在HDFS上的数据目录来创建分区表
  • step3:申明分区
  • DWD层
  • 来自于ODS层数据
  • 数据存储格式:ORC
  • 不区分全量和增量的
  • 实现
  • step1:创建DWD层数据库:one_make_dwd
  • step2:创建DWD层的每一张表
  • step3:从ODS层抽取每一张表的数据写入DWD层对应的表中
  • 小结
  • 回顾一站制造项目分层设计

04:Hive建表语法

  • 目标:掌握Hive建表语法
  • 实施
CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name
(
    col1Name col1Type [COMMENT col_comment],
    co21Name col2Type [COMMENT col_comment],
    co31Name col3Type [COMMENT col_comment],
    co41Name col4Type [COMMENT col_comment],
    co51Name col5Type [COMMENT col_comment],
    ……
    coN1Name colNType [COMMENT col_comment]
)
[PARTITIONED BY (col_name data_type ...)]
[CLUSTERED BY (col_name...) [SORTED BY (col_name ...)] INTO N BUCKETS]
[ROW FORMAT row_format]
  row format delimited fields terminated by 
  lines terminated by
[STORED AS file_format]
[LOCATION hdfs_path]
TBLPROPERTIES
  • EXTERNAL:外部表类型(删除表的时候,不会删除hdfs中数据)
  • 内部表、外部表、临时表
  • PARTITIONED BY:分区表结构
  • 普通表、分区表、分桶表
  • CLUSTERED BY:分桶表结构
  • ROW FORMAT:指定分隔符
  • 列的分隔符:\001
  • 行的分隔符:\n
  • STORED AS:指定文件存储类型
  • ODS:avro
  • DWD:orc
  • LOCATION:指定表对应的HDFS上的地址
  • 默认:/user/hive/warehouse/dbdir/tbdir
  • TBLPROPERTIES:指定一些表的额外的一些特殊配置属性
  • 小结
  • 掌握Hive建表语法

05:Avro建表语法

  • 目标:掌握Hive中Avro建表方式及语法
  • 路径
  • step1:指定文件类型
  • step2:指定Schema
  • step3:建表方式
  • 实施
  • 方式一:指定类型
stored as avro
  • 方式二:指定解析类
--解析表的文件的时候,用哪个类来解析
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
--读取这张表的数据用哪个类来读取
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
--写入这张表的数据用哪个类来写入
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
  • 指定Schema
  • 方式一:手动定义Schema
CREATE TABLE embedded
COMMENT "这是表的注释"
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
TBLPROPERTIES (
  'avro.schema.literal'='{
    "namespace": "com.howdy",
    "name": "some_schema",
    "type": "record",
    "fields": [ { "name":"string1","type":"string"}]
  }'
);        
  • 方式二:加载Schema文件
CREATE TABLE embedded
COMMENT "这是表的注释"
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED as INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
TBLPROPERTIES (
 'avro.schema.url'='file:///path/to/the/schema/embedded.avsc'
);
  • 建表语法
  • 方式一:指定类型和加载Schema文件
create external table one_make_ods_test.ciss_base_areas
comment '行政地理区域表'
PARTITIONED BY (dt string)
stored as avro
location '/data/dw/ods/one_make/full_imp/ciss4.ciss_base_areas'
TBLPROPERTIES ('avro.schema.url'='/data/dw/ods/one_make/avsc/CISS4_CISS_BASE_AREAS.avsc');
  • 方式二:指定解析类和加载Schema文件
create external table one_make_ods_test.ciss_base_areas
comment '行政地理区域表'
PARTITIONED BY (dt string)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
location '/data/dw/ods/one_make/full_imp/ciss4.ciss_base_areas'
TBLPROPERTIES ('avro.schema.url'='/data/dw/ods/one_make/avsc/CISS4_CISS_BASE_AREAS.avsc');
create external table 数据库名称.表名
comment '表的注释'
partitioned by
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
location '这张表在HDFS上的路径'
TBLPROPERTIES ('这张表的Schema文件在HDFS上的路径')
  • 小结
  • 掌握Hive中Avro建表方式及语法


目录
相关文章
|
3月前
|
监控 供应链 安全
物联网卡在工业领域的应用
物联网卡在工业领域的应用极大地推动了行业的智能化、自动化和高效化进程。以下是物联网卡在工业领域中各操作类型中的具体应用作用:
|
1月前
|
存储 人工智能 大数据
物联网、大数据、云计算、人工智能之间的关系
物联网、大数据、云计算、人工智能之间的关系是紧密相连、相互促进的。这四者既有各自独立的技术特征,又能在不同层面上相互融合,共同推动信息技术的发展和应用。
598 0
|
2月前
|
传感器 监控 供应链
物联网怎么推动工业数字化转型?
物联网(Internet of Things,loT)是指通过信息传感设备,如射频识别(RFID)、红外感应器、全球定位系统、激光扫描器等装置,按约定的协议,将任何物品与互联网连接起来,进行信息交换和通信,以实现智能化识别、定位、跟踪、监控和管理的一种网络。
43 0
|
4月前
|
分布式计算 搜索推荐 物联网
大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
|
4月前
|
消息中间件 数据采集 JSON
大数据 - DWD&DIM 行为数据
大数据 - DWD&DIM 行为数据
71 1
|
4月前
|
大数据
大数据 - ODS&DWD&DIM-SQL分享
大数据 - ODS&DWD&DIM-SQL分享
107 0
|
4月前
|
消息中间件 大数据 Kafka
大数据 - DWD&DIM 业务数据
大数据 - DWD&DIM 业务数据
57 0
|
6月前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用问题之ods层离线同步任务,数据源的一张表新增了字段。如何更改可以不影响当前节点和下游任务的运行
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用合集之如何实现嵌入式设备到物联网平台再到PAI DSW的云边结合
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
6月前
|
SQL 分布式计算 大数据
MaxCompute产品使用问题之如何查看ODS层生产环境有多少表正在使用
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。